Hemmelighederne bag AI: Hvorfor forklaring er afgørende!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Prof. Dr. Jürgen Bajorath fra universitetet i Bonn undersøger udfordringerne og mulighederne ved forklarlig AI i forskning.

Prof. Dr. Jürgen Bajorath von der Uni Bonn beleuchtet die Herausforderungen und Chancen der erklärbaren KI in der Forschung.
Prof. Dr. Jürgen Bajorath fra universitetet i Bonn undersøger udfordringerne og mulighederne ved forklarlig AI i forskning.

Hemmelighederne bag AI: Hvorfor forklaring er afgørende!

Den 4. april 2025 vil betydningen af ​​forklarlig kunstig intelligens (AI) igen blive fremhævet i videnskabelige kredse. Computeralgoritmer, der er i stand til at lære, har gjort betydelige fremskridt i de seneste år, men står over for et centralt problem: deres mangel på gennemsigtighed. Dette påvirker især beslutningsprocesser, som ofte opfattes som en "sort boks". For eksempel, når det kommer til køretøjsgenkendelse ved hjælp af AI, er det ofte uklart, hvilke funktioner algoritmerne bruger i deres beslutninger. Prof. Dr. Jürgen Bajorath, som leder området for AI inden for biovidenskab på Lamarr Institute og Life Science Informatics-programmet ved universitetet i Bonn, understreger, at disse modeller ikke bør stoles blindt på.

At undersøge forklarligheden af ​​AI er centralt for at forstå, hvornår algoritmer er pålidelige i deres beslutningstagning. Forklarlighed beskriver et AI-systems evne til transparent at forklare, hvilke kriterier der er afgørende for dets resultater. Inden for kemi og lægemiddelopdagelse er disse krav særligt udfordrende, fordi kemiske sprogmodeller ofte foreslår nye molekyler uden at forklare, hvorfor disse forslag fremsættes.

Konceptet med forklarlig AI

Initiativet Explainable AI (XAI) har til formål at optrevle de ofte komplekse beslutningsprocesser for AI-algoritmer. Afvisninger af låneansøgninger fra et AI-system efterlader ofte frustration og mistillid, fordi årsagen til beslutningen forbliver uklar. XAI kan hjælpe med at overvinde disse udfordringer. Vigtige aspekter er gennemsigtighed og tillid, især på kritiske områder som sundhedsvæsen, bankvæsen og autonom kørsel, hvor beslutninger kan have alvorlige konsekvenser for mennesker.

XAI-metoder omfatter identifikation af indflydelsesrige funktioner for forudsigelser såvel som lokale modeller, der forklarer specifikke forudsigelser (såsom LIME). Disse metoder er vigtige for at opdage og minimere potentielle skævheder i AI-modellerne. Nuværende anvendelser af XAI spænder fra forklaringer på medicinske diagnoser til gennemsigtige beslutninger i fremstillingsprocesser.

Forklarlighedens udfordringer

Selvom der er sket fremskridt, er der en række udfordringer, der skal overvindes. Der er en målkonflikt mellem den ønskede modelkompleksitet, som ofte fører til en "sort boks", og beslutningernes forklarlighed. Store sprogmodeller (LLM) påvirkes også her, da deres komplekse strukturer kan umuliggøre en simpel forklaring. Desuden skal udviklingsressourcer til brugervenlige XAI-værktøjer allokeres for at fremme en bredere anvendelse.

Bajorath advarer om, at de funktioner, som AI anser for relevante, ikke nødvendigvis har en kausal indflydelse på ønskede resultater. For at validere de foreslåede molekylære strukturer er kemiske eksperimenter afgørende for at forstå, om funktionerne faktisk er relevante. Plausibilitetstjek er derfor afgørende.

Sammenfattende er forklarligheden og gennemsigtigheden af ​​AI-systemer ikke kun et teknisk krav, men en nødvendighed for ansvarlig og etisk brug i samfundet. Som ranktracker.com noter, klare forklaringer fremmer tillid og er afgørende for overholdelse af juridiske standarder.

Brugen af ​​adaptive algoritmer har derfor potentialet til at fremme forskningen inden for naturvidenskab markant. Ikke desto mindre kræver dette en dyb forståelse af deres styrker og svagheder for at sikre, at udviklingen er både etisk og effektiv. Fraunhofer beskriver, hvordan relevante forklaringsmetoder kan være med til ikke blot at forbedre teknologier, men også til at sikre overførsel af ansvar i beslutningsprocesser.

I betragtning af de forskellige anvendelsesområder forbliver diskussionen om forklarligheden af ​​AI-beslutninger et centralt emne i det videnskabelige samfund.