Revolution inden for neurovidenskab: AI afkoder den menneskelige hjerne!
FU Berlin forsker i sammenhængen mellem store sprogmodeller og menneskelig visuel forståelse, udgivet i "Nature".

Revolution inden for neurovidenskab: AI afkoder den menneskelige hjerne!
En ny undersøgelse udført af et hold ledet af prof. Dr. Adrien Doerig fra Frie Universitet i Berlin viser, at store sprogmodeller (LLM'er) er i stand til at forudsige, hvordan den menneskelige hjerne reagerer på visuelle stimuli. Denne forskning blev offentliggjort i det anerkendte tidsskriftNature Machine Intelligenceudgivet og med titlen "Visuelle repræsentationer på højt niveau i den menneskelige hjerne er tilpasset store sprogmodeller" rapporterer det frie universitet i Berlin.
Undersøgelsen vedrører interaktionen mellem menneskelig visuel perception og repræsentationerne genereret af LLM'er, såsom dem bag ChatGPT. Indtil nu har der været mangel på effektive redskaber til at analysere de meget abstrakte betydninger, som mennesker får af visuelle indtryk. Forskerholdet opnåede dette ved at udtrække "semantiske fingeraftryk" fra normale scenebeskrivelser, som derefter blev brugt til at modellere funktionelle MR-data indsamlet under visning af hverdagsbilleder.
Innovative metoder til dataanalyse
De undersøgte billeder inkluderer scener som "børn, der leger frisbee i skolegården" og "en hund, der står på en sejlbåd." Repræsentationerne genereret af LLM'er førte til nøjagtige forudsigelser af hjerneaktivitet, hvilket gjorde det muligt at drage slutninger om, hvad der blev set. Disse metoder viste sig at være mere effektive end mange nuværende billedklassifikationssystemer, hvilket fremhævede vigtigheden og potentielle anvendelser af LLM'er i neurovidenskab.
Derudover blev computervisionsmodellers evne til at forudsige semantiske fingeraftryk direkte fra billeder undersøgt, hvilket kunne fremme forskningen yderligere. Disse resultater er af stor relevans ikke kun for neurovidenskab, men også for udviklingen af intelligente systemer. Højt Fraunhofer IKS Betydningen af AI-baserede kognitive systemer bliver mere og mere tydelig, da disse teknologier er uundværlige i forskellige anvendelsesområder, herunder autonome køretøjer.
Udfordringerne i AI og høje sikkerhedskrav
Kompleksiteten af store sprogmodeller og den vedvarende uforståelighed af sådanne systemer udgør imidlertid betydelige udfordringer. David Bau, en datalog ved Northeastern University, beskriver, hvordan traditionel software gør det muligt at identificere problemer, mens AI ofte fungerer som en "sort boks", hvis nøjagtige funktionalitet er svær at forstå. Forskningsfeltet for forklarlig AI (XAI) bliver derfor stadig vigtigere for bedre at forstå den interne logik og beslutningstagning i AI-systemer rapporterede Spektrum.de.
Da LLM'er bruges til komplekse opgaver såsom medicinske konsultationer eller programmering, er det vigtigt, at deres beslutninger er forståelige. Behovet for at give forklaringer til AI-systemer er afgørende, især i højrisikoapplikationer. Bau påpeger, at virksomheder som OpenAI holder deres kildekode hemmelig, hvilket hindrer indsatsen for at udføre gennemsigtig forskning og derfor begrænser udviklingen af sikre, forklarlige AI-systemer.
I fremtiden kan syntesen af indsigt fra hjerneforskning og AI-udvikling, som demonstreret i den aktuelle undersøgelse, være medvirkende til at bygge bro mellem menneskets og maskinens forståelse. Disse synergier åbner nye perspektiver for begge videnskabelige discipliner og står på tærsklen til banebrydende fremskridt inden for udvikling af intelligente systemer.