I segreti dell’intelligenza artificiale: perché la spiegabilità è fondamentale!
Il Prof. Dr. Jürgen Bajorath dell'Università di Bonn esamina le sfide e le opportunità dell'intelligenza artificiale spiegabile nella ricerca.

I segreti dell’intelligenza artificiale: perché la spiegabilità è fondamentale!
Il 4 aprile 2025, negli ambienti scientifici verrà nuovamente sottolineata l’importanza dell’intelligenza artificiale spiegabile (AI). Gli algoritmi informatici capaci di apprendere hanno fatto progressi significativi negli ultimi anni, ma devono affrontare un problema centrale: la loro mancanza di trasparenza. Ciò colpisce in particolare i processi decisionali, che spesso sono percepiti come una “scatola nera”. Ad esempio, quando si tratta del riconoscimento dei veicoli tramite l’intelligenza artificiale, spesso non è chiaro quali caratteristiche utilizzino gli algoritmi nelle loro decisioni. Il Prof. Dr. Jürgen Bajorath, che dirige il settore dell'intelligenza artificiale nelle scienze della vita presso l'Istituto Lamarr e il programma di informatica sulle scienze della vita presso l'Università di Bonn, sottolinea che non bisogna fidarsi ciecamente di questi modelli.
La ricerca sulla spiegabilità dell’intelligenza artificiale è fondamentale per capire quando gli algoritmi sono affidabili nel loro processo decisionale. La spiegabilità descrive la capacità di un sistema di intelligenza artificiale di spiegare in modo trasparente quali criteri sono cruciali per i suoi risultati. Nella chimica e nella scoperta di farmaci, questi requisiti sono particolarmente impegnativi perché i modelli del linguaggio chimico spesso suggeriscono nuove molecole senza spiegare il motivo per cui vengono fatti questi suggerimenti.
Il concetto di IA spiegabile
L’iniziativa Explainable AI (XAI) mira a svelare i processi decisionali spesso complessi degli algoritmi di intelligenza artificiale. Il rifiuto delle richieste di prestito da parte di un sistema di intelligenza artificiale spesso lascia frustrazione e sfiducia perché il motivo della decisione rimane poco chiaro. XAI può aiutare a superare queste sfide. Aspetti importanti sono la trasparenza e la fiducia, soprattutto in settori critici come la sanità, le banche e la guida autonoma, dove le decisioni possono avere un impatto grave sulle persone.
I metodi XAI includono l'identificazione di caratteristiche influenti per le previsioni nonché di modelli locali che spiegano previsioni specifiche (come LIME). Questi metodi sono importanti per rilevare e ridurre al minimo potenziali distorsioni nei modelli di intelligenza artificiale. Le attuali applicazioni di XAI spaziano dalle spiegazioni per le diagnosi mediche alle decisioni trasparenti nei processi di produzione.
Sfide di spiegabilità
Nonostante siano stati compiuti progressi, vi sono una serie di sfide da superare. Esiste un conflitto di obiettivi tra la complessità del modello desiderata, che spesso porta a una “scatola nera”, e la spiegabilità delle decisioni. Qui sono interessati anche i modelli linguistici di grandi dimensioni (LLM), poiché le loro strutture complesse possono rendere impossibile una spiegazione semplice. Inoltre, è necessario allocare risorse per lo sviluppo di strumenti XAI di facile utilizzo per promuoverne un’adozione più ampia.
Bajorath avverte che le caratteristiche che l’intelligenza artificiale ritiene rilevanti non hanno necessariamente un’influenza causale sui risultati desiderati. Per validare le strutture molecolari proposte, gli esperimenti chimici sono essenziali per capire se le caratteristiche sono effettivamente rilevanti. I controlli di plausibilità sono quindi essenziali.
In sintesi, la spiegabilità e la trasparenza dei sistemi di intelligenza artificiale non sono solo un requisito tecnico, ma una necessità per un uso responsabile ed etico nella società. Come il rankingtracker.com note, spiegazioni chiare promuovono la fiducia e sono fondamentali per il rispetto degli standard legali.
L’uso di algoritmi adattivi ha quindi il potenziale per far avanzare significativamente la ricerca nelle scienze naturali. Tuttavia, ciò richiede una profonda comprensione dei loro punti di forza e di debolezza per garantire che gli sviluppi siano sia etici che efficaci. Fraunhofer descrive come metodi di spiegabilità rilevanti possano aiutare non solo a migliorare le tecnologie, ma anche a garantire il trasferimento di responsabilità nei processi decisionali.
Considerati i diversi ambiti di applicazione, la discussione sulla spiegabilità delle decisioni dell’IA rimane un argomento centrale nella comunità scientifica.