Hemmelighetene til AI: Hvorfor forklaring er avgjørende!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Prof. Dr. Jürgen Bajorath fra Universitetet i Bonn undersøker utfordringene og mulighetene ved forklarbar AI i forskning.

Prof. Dr. Jürgen Bajorath von der Uni Bonn beleuchtet die Herausforderungen und Chancen der erklärbaren KI in der Forschung.
Prof. Dr. Jürgen Bajorath fra Universitetet i Bonn undersøker utfordringene og mulighetene ved forklarbar AI i forskning.

Hemmelighetene til AI: Hvorfor forklaring er avgjørende!

4. april 2025 vil viktigheten av forklarbar kunstig intelligens (AI) igjen bli fremhevet i vitenskapelige kretser. Dataalgoritmer som er i stand til å lære har gjort betydelige fremskritt de siste årene, men står overfor et sentralt problem: deres mangel på åpenhet. Dette påvirker spesielt beslutningsprosesser, som ofte oppfattes som en «black box». For eksempel, når det gjelder kjøretøygjenkjenning ved bruk av AI, er det ofte uklart hvilke funksjoner algoritmene bruker i sine beslutninger. Prof. Dr. Jürgen Bajorath, som leder området for AI i biovitenskap ved Lamarr Institute og Life Science Informatics-programmet ved Universitetet i Bonn, understreker at disse modellene ikke bør stoles blindt på.

Å undersøke forklarbarheten til AI er sentralt for å forstå når algoritmer er pålitelige i beslutningsprosessen. Forklarbarhet beskriver evnen til et AI-system til transparent å forklare hvilke kriterier som er avgjørende for resultatene. Innenfor kjemi og legemiddeloppdagelse er disse kravene spesielt utfordrende fordi kjemiske språkmodeller ofte foreslår nye molekyler uten å forklare hvorfor disse forslagene er laget.

Konseptet med forklarbar AI

Initiativet Explainable AI (XAI) tar sikte på å avdekke de ofte komplekse beslutningsprosessene til AI-algoritmer. Avslag på lånesøknader fra et AI-system gir ofte frustrasjon og mistillit fordi årsaken til avgjørelsen fortsatt er uklar. XAI kan hjelpe med å overvinne disse utfordringene. Viktige aspekter er åpenhet og tillit, spesielt på kritiske områder som helsevesen, bank og autonom kjøring, der beslutninger kan ha alvorlige konsekvenser for mennesker.

XAI-metoder inkluderer å identifisere innflytelsesrike funksjoner for spådommer så vel som lokale modeller som forklarer spesifikke spådommer (som LIME). Disse metodene er viktige for å oppdage og minimere potensielle skjevheter i AI-modellene. Nåværende anvendelser av XAI spenner fra forklaringer på medisinske diagnoser til transparente beslutninger i produksjonsprosesser.

Forklarbarhetens utfordringer

Selv om det er gjort fremskritt, er det en rekke utfordringer som må overvinnes. Det er en målkonflikt mellom ønsket modellkompleksitet, som ofte fører til en "svart boks", og beslutningenes forklarbarhet. Store språkmodeller (LLM) påvirkes også her, da deres komplekse strukturer kan umuliggjøre en enkel forklaring. Videre må utviklingsressurser for brukervennlige XAI-verktøy allokeres for å fremme bredere bruk.

Bajorath advarer om at funksjonene som AI anser som relevante ikke nødvendigvis har en årsakspåvirkning på ønskede utfall. For å validere de foreslåtte molekylstrukturene, er kjemiske eksperimenter avgjørende for å forstå om funksjonene faktisk er relevante. Plausibilitetskontroll er derfor viktig.

Oppsummert er forklarbarheten og åpenheten til AI-systemer ikke bare et teknisk krav, men en nødvendighet for ansvarlig og etisk bruk i samfunnet. Som ranktracker.com notater, tydelige forklaringer fremmer tillit og er avgjørende for overholdelse av juridiske standarder.

Bruken av adaptive algoritmer har derfor potensial til å fremme forskningen innen naturvitenskap betydelig. Dette krever likevel en dyp forståelse av deres styrker og svakheter for å sikre at utviklingen er både etisk og effektiv. Fraunhofer beskriver hvordan relevante forklaringsmetoder kan bidra ikke bare til å forbedre teknologier, men også til å sikre overføring av ansvar i beslutningsprosesser.

Gitt de forskjellige bruksområdene, er diskusjonen om forklarbarheten til AI-beslutninger fortsatt et sentralt tema i det vitenskapelige samfunnet.