De geheimen van AI: waarom verklaarbaarheid cruciaal is!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Prof. Dr. Jürgen Bajorath van de Universiteit van Bonn onderzoekt de uitdagingen en kansen van verklaarbare AI in onderzoek.

Prof. Dr. Jürgen Bajorath von der Uni Bonn beleuchtet die Herausforderungen und Chancen der erklärbaren KI in der Forschung.
Prof. Dr. Jürgen Bajorath van de Universiteit van Bonn onderzoekt de uitdagingen en kansen van verklaarbare AI in onderzoek.

De geheimen van AI: waarom verklaarbaarheid cruciaal is!

Op 4 april 2025 wordt het belang van verklaarbare kunstmatige intelligentie (AI) opnieuw onder de aandacht gebracht in wetenschappelijke kringen. Computeralgoritmen die kunnen leren hebben de afgelopen jaren aanzienlijke vooruitgang geboekt, maar worden geconfronteerd met een centraal probleem: hun gebrek aan transparantie. Dit heeft vooral gevolgen voor besluitvormingsprocessen, die vaak worden gezien als een ‘black box’. Als het bijvoorbeeld gaat om voertuigherkenning met behulp van AI, is het vaak onduidelijk welke kenmerken de algoritmen gebruiken bij hun beslissingen. Prof. Dr. Jürgen Bajorath, hoofd van het gebied van AI in de levenswetenschappen aan het Lamarr Instituut en het Life Science Informatics-programma aan de Universiteit van Bonn, benadrukt dat deze modellen niet blindelings mogen worden vertrouwd.

Onderzoek naar de verklaarbaarheid van AI is van cruciaal belang om te begrijpen wanneer algoritmen betrouwbaar zijn in hun besluitvorming. Verklaarbaarheid beschrijft het vermogen van een AI-systeem om op transparante wijze uit te leggen welke criteria cruciaal zijn voor de resultaten ervan. In de scheikunde en de ontdekking van geneesmiddelen zijn deze vereisten bijzonder uitdagend omdat chemische taalmodellen vaak nieuwe moleculen suggereren zonder uit te leggen waarom deze suggesties worden gedaan.

Het concept van verklaarbare AI

Het Exploreable AI (XAI)-initiatief heeft tot doel de vaak complexe besluitvormingsprocessen van AI-algoritmen te ontrafelen. Afwijzingen van leningaanvragen door een AI-systeem zorgen vaak voor frustratie en wantrouwen, omdat de reden voor de beslissing onduidelijk blijft. XAI kan helpen deze uitdagingen te overwinnen. Belangrijke aspecten zijn transparantie en vertrouwen, vooral op cruciale terreinen als de gezondheidszorg, het bankwezen en autonoom rijden, waar beslissingen ernstige gevolgen kunnen hebben voor mensen.

XAI-methoden omvatten het identificeren van invloedrijke kenmerken voor voorspellingen, evenals lokale modellen die specifieke voorspellingen verklaren (zoals LIME). Deze methoden zijn belangrijk voor het opsporen en minimaliseren van mogelijke vooroordelen in de AI-modellen. De huidige toepassingen van XAI variëren van verklaringen voor medische diagnoses tot transparante beslissingen in productieprocessen.

Uitdagingen van verklaarbaarheid

Hoewel er vooruitgang is geboekt, zijn er nog een aantal uitdagingen die overwonnen moeten worden. Er is een conflict van doelstellingen tussen de gewenste complexiteit van het model, wat vaak leidt tot een ‘black box’, en de verklaarbaarheid van de beslissingen. Ook grote taalmodellen (LLM) worden hier getroffen, omdat hun complexe structuren een eenvoudige verklaring onmogelijk kunnen maken. Bovendien moeten er ontwikkelingsmiddelen voor gebruiksvriendelijke XAI-tools worden toegewezen om een ​​bredere adoptie te bevorderen.

Bajorath waarschuwt dat de kenmerken die AI relevant acht niet noodzakelijkerwijs een causale invloed hebben op de gewenste uitkomsten. Om de voorgestelde moleculaire structuren te valideren, zijn chemische experimenten essentieel om te begrijpen of de kenmerken daadwerkelijk relevant zijn. Plausibiliteitscontroles zijn daarom essentieel.

Samenvattend is de verklaarbaarheid en transparantie van AI-systemen niet alleen een technische vereiste, maar een noodzaak voor verantwoord en ethisch gebruik in de samenleving. Zoals de ranktracker.com notities, duidelijke uitleg bevorderen het vertrouwen en zijn cruciaal voor het naleven van wettelijke normen.

Het gebruik van adaptieve algoritmen heeft daarom het potentieel om het onderzoek in de natuurwetenschappen aanzienlijk vooruit te helpen. Niettemin vereist dit een diepgaand begrip van hun sterke en zwakke punten om ervoor te zorgen dat de ontwikkelingen zowel ethisch als effectief zijn. Fraunhofer beschrijft hoe relevante verklaarbaarheidsmethoden niet alleen kunnen helpen om technologieën te verbeteren, maar ook om de overdracht van verantwoordelijkheid in besluitvormingsprocessen te garanderen.

Gezien de uiteenlopende toepassingsgebieden blijft de discussie over de verklaarbaarheid van AI-beslissingen een centraal onderwerp in de wetenschappelijke gemeenschap.