Revolusjon innen nevrovitenskap: AI dekoder den menneskelige hjernen!
FU Berlin forsker på sammenhengen mellom store språkmodeller og menneskelig visuell forståelse, publisert i «Nature».

Revolusjon innen nevrovitenskap: AI dekoder den menneskelige hjernen!
En ny studie utført av et team ledet av prof. Dr. Adrien Doerig fra Free University of Berlin viser at store språkmodeller (LLMs) er i stand til å forutsi hvordan den menneskelige hjernen reagerer på visuelle stimuli. Denne forskningen ble publisert i det anerkjente tidsskriftetNature Machine Intelligencepublisert og med tittelen "Visuelle representasjoner på høyt nivå i den menneskelige hjernen er på linje med store språkmodeller" melder det frie universitetet i Berlin.
Undersøkelsen relaterer seg til interaksjonen mellom menneskelig visuell persepsjon og representasjonene generert av LLM-er, slik som de bak ChatGPT. Til nå har det vært mangel på effektive verktøy for å analysere de svært abstrakte betydningene som mennesker henter fra visuelle inntrykk. Forskerteamet oppnådde dette ved å trekke ut "semantiske fingeravtrykk" fra vanlige scenebeskrivelser, som deretter ble brukt til å modellere funksjonelle MR-data samlet inn mens de så på hverdagsbilder.
Innovative metoder for dataanalyse
Bildene som ble undersøkt inkluderer scener som «barn som spiller frisbee i skolegården» og «en hund som står på en seilbåt». Representasjonene generert av LLM-er førte til nøyaktige spådommer av hjerneaktivitet, slik at man kunne trekke slutninger om hva som ble sett. Disse metodene viste seg å være mer effektive enn mange nåværende bildeklassifiseringssystemer, og fremhevet viktigheten og potensielle anvendelser av LLM-er i nevrovitenskap.
I tillegg ble evnen til datasynsmodeller til å forutsi semantiske fingeravtrykk direkte fra bilder undersøkt, noe som kan fremme forskning ytterligere. Disse funnene er av stor relevans ikke bare for nevrovitenskap, men også for utviklingen av intelligente systemer. Høyt Fraunhofer IKS Betydningen av AI-baserte kognitive systemer blir stadig tydeligere ettersom disse teknologiene er uunnværlige i ulike bruksområder, inkludert autonome kjøretøy.
Utfordringene innen AI og høye sikkerhetskrav
Kompleksiteten til store språkmodeller og den vedvarende uforståligheten til slike systemer utgjør imidlertid betydelige utfordringer. David Bau, informatiker ved Northeastern University, beskriver hvordan tradisjonell programvare lar problemer identifiseres, mens AI ofte fungerer som en "svart boks" hvis nøyaktige funksjonalitet er vanskelig å forstå. Forskningsfeltet forklarbar AI (XAI) blir derfor stadig viktigere for å bedre forstå den interne logikken og beslutningsprosessen til AI-systemer rapporterte Spektrum.de.
Siden LLM-er brukes til komplekse oppgaver som medisinske konsultasjoner eller programmering, er det viktig at deres beslutninger er forståelige. Behovet for å gi forklaringer for AI-systemer er avgjørende, spesielt i høyrisikoapplikasjoner. Bau påpeker at selskaper som OpenAI holder kildekoden hemmelig, noe som hindrer innsatsen for å drive gjennomsiktig forskning og derfor begrenser utviklingen av sikre, forklarbare AI-systemer.
I fremtiden kan syntesen av innsikt fra hjerneforskning og AI-utvikling, som demonstrert i den nåværende studien, være medvirkende til å bygge bro mellom menneskelig og maskinell forståelse. Disse synergiene åpner for nye perspektiver for begge vitenskapelige disipliner og står på terskelen til banebrytende fremskritt i utviklingen av intelligente systemer.