Revolution inom neurovetenskap: AI avkodar den mänskliga hjärnan!
FU Berlin forskar på sambandet mellan stora språkmodeller och mänsklig visuell förståelse, publicerad i "Nature".

Revolution inom neurovetenskap: AI avkodar den mänskliga hjärnan!
En ny studie utförd av ett team ledd av prof. Dr. Adrien Doerig från Free University of Berlin visar att stora språkmodeller (LLM) kan förutsäga hur den mänskliga hjärnan reagerar på visuella stimuli. Denna forskning publicerades i den berömda tidskriftenNature Machine Intelligencepublicerad och med titeln "Visuella representationer på hög nivå i den mänskliga hjärnan är anpassade till stora språkmodeller" rapporterar Free University of Berlin.
Undersökningen relaterar till interaktionen mellan mänsklig visuell perception och representationerna som genereras av LLMs, som de bakom ChatGPT. Hittills har det saknats effektiva verktyg för att analysera de mycket abstrakta betydelser som människor får av synintryck. Forskargruppen uppnådde detta genom att extrahera "semantiska fingeravtryck" från normala scenbeskrivningar, som sedan användes för att modellera funktionell MR-data som samlats in medan man tittade på vardagliga bilder.
Innovativa metoder för dataanalys
Bilderna som granskas inkluderar scener som "barn som spelar frisbee på skolgården" och "en hund som står på en segelbåt." De representationer som genererades av LLM ledde till exakta förutsägelser av hjärnaktivitet, vilket gjorde det möjligt att dra slutsatser om vad som sågs. Dessa metoder visade sig vara mer effektiva än många nuvarande bildklassificeringssystem, vilket belyser betydelsen och potentiella tillämpningar av LLM inom neurovetenskap.
Dessutom undersöktes förmågan hos datorseendemodeller att förutsäga semantiska fingeravtryck direkt från bilder, vilket kan främja forskningen ytterligare. Dessa fynd är av stor relevans inte bara för neurovetenskap, utan också för utvecklingen av intelligenta system. Högt Fraunhofer IKS Vikten av AI-baserade kognitiva system blir allt tydligare då dessa teknologier är oumbärliga inom olika applikationsområden, inklusive autonoma fordon.
Utmaningarna inom AI och höga säkerhetskrav
Komplexiteten hos stora språkmodeller och den ihållande obegripligheten hos sådana system utgör dock betydande utmaningar. David Bau, datavetare vid Northeastern University, beskriver hur traditionell programvara gör att problem kan identifieras, medan AI ofta fungerar som en "svart låda" vars exakta funktionalitet är svår att förstå. Forskningsområdet förklarlig AI (XAI) blir därför allt viktigare för att bättre förstå den interna logiken och beslutsfattandet i AI-system rapporterade Spektrum.de.
Eftersom LLM:er används för komplexa uppgifter som medicinska konsultationer eller programmering, är det viktigt att deras beslut är begripliga. Behovet av att ge förklaringar till AI-system är viktigt, särskilt i högriskapplikationer. Bau påpekar att företag som OpenAI håller sin källkod hemlig, vilket hindrar ansträngningarna att bedriva transparent forskning och därför begränsar utvecklingen av säkra, förklarliga AI-system.
I framtiden kan syntesen av insikter från hjärnforskning och AI-utveckling, som visas i den aktuella studien, vara avgörande för att överbrygga klyftan mellan människans och maskinens förståelse. Dessa synergier öppnar upp nya perspektiv för båda vetenskapliga disciplinerna och står på tröskeln till banbrytande framsteg inom utvecklingen av intelligenta system.