Rivoluzione nelle neuroscienze: l’intelligenza artificiale decodifica il cervello umano!
La FU di Berlino sta studiando la connessione tra grandi modelli linguistici e la comprensione visiva umana, pubblicata su "Nature".

Rivoluzione nelle neuroscienze: l’intelligenza artificiale decodifica il cervello umano!
Un nuovo studio condotto da un team guidato dal Prof. Dr. Adrien Doerig della Libera Università di Berlino mostra che i modelli linguistici di grandi dimensioni (LLM) sono in grado di prevedere come il cervello umano reagisce agli stimoli visivi. Questa ricerca è stata pubblicata sulla rinomata rivistaIntelligenza artificiale della naturapubblicato e intitolato “Le rappresentazioni visive di alto livello nel cervello umano sono allineate con modelli linguistici di grandi dimensioni” riferisce la Libera Università di Berlino.
L'indagine riguarda l'interazione tra la percezione visiva umana e le rappresentazioni generate dai LLM, come quelle dietro ChatGPT. Finora mancavano strumenti efficaci per analizzare i significati altamente astratti che le persone traggono dalle impressioni visive. Il gruppo di ricerca ha ottenuto questo risultato estraendo “impronte semantiche” dalle normali descrizioni di scene, che sono state poi utilizzate per modellare i dati MRI funzionali raccolti durante la visualizzazione di immagini di tutti i giorni.
Metodi innovativi per l'analisi dei dati
Le immagini esaminate includono scene come “bambini che giocano a frisbee nel cortile della scuola” e “un cane in piedi su una barca a vela”. Le rappresentazioni generate dai LLM hanno portato a previsioni accurate dell'attività cerebrale, consentendo di trarre inferenze su ciò che è stato visto. Questi metodi si sono rivelati più efficaci di molti attuali sistemi di classificazione delle immagini, evidenziando l'importanza e le potenziali applicazioni dei LLM nelle neuroscienze.
Inoltre, è stata studiata la capacità dei modelli di visione artificiale di prevedere le impronte digitali semantiche direttamente dalle immagini, il che potrebbe far avanzare ulteriormente la ricerca. Queste scoperte sono di grande rilevanza non solo per le neuroscienze, ma anche per lo sviluppo di sistemi intelligenti. Forte Fraunhofer IKS L’importanza dei sistemi cognitivi basati sull’intelligenza artificiale sta diventando sempre più chiara poiché queste tecnologie sono indispensabili in vari ambiti applicativi, compresi i veicoli autonomi.
Le sfide dell’intelligenza artificiale e gli elevati requisiti di sicurezza
Tuttavia, la complessità dei grandi modelli linguistici e la persistente incomprensibilità di tali sistemi pongono sfide significative. David Bau, scienziato informatico della Northeastern University, descrive come il software tradizionale consenta di identificare i problemi, mentre l’intelligenza artificiale spesso agisce come una “scatola nera” la cui esatta funzionalità è difficile da comprendere. Il campo di ricerca dell’IA spiegabile (XAI) sta quindi diventando sempre più importante per comprendere meglio la logica interna e il processo decisionale dei sistemi di IA ha riferito Spektrum.de.
Poiché gli LLM vengono utilizzati per compiti complessi come consultazioni mediche o programmazione, è essenziale che le loro decisioni siano comprensibili. La necessità di fornire spiegazioni per i sistemi di intelligenza artificiale è essenziale, soprattutto nelle applicazioni ad alto rischio. Bau sottolinea che aziende come OpenAI mantengono segreto il loro codice sorgente, il che ostacola gli sforzi per condurre una ricerca trasparente e quindi limita lo sviluppo di sistemi di intelligenza artificiale sicuri e spiegabili.
In futuro, la sintesi delle intuizioni provenienti dalla ricerca sul cervello e dallo sviluppo dell’intelligenza artificiale, come dimostrato nel presente studio, potrebbe essere determinante per colmare il divario tra la comprensione umana e quella della macchina. Queste sinergie aprono nuove prospettive per entrambe le discipline scientifiche e sono sulla soglia di progressi rivoluzionari nello sviluppo di sistemi intelligenti.