Revolutie in de neurowetenschappen: AI decodeert het menselijk brein!
De FU Berlin onderzoekt het verband tussen grote taalmodellen en menselijk visueel begrip, gepubliceerd in "Nature".

Revolutie in de neurowetenschappen: AI decodeert het menselijk brein!
Een nieuwe studie uitgevoerd door een team onder leiding van prof. dr. Adrien Doerig van de Vrije Universiteit van Berlijn toont aan dat grote taalmodellen (LLM's) kunnen voorspellen hoe het menselijk brein reageert op visuele stimuli. Dit onderzoek is gepubliceerd in het gerenommeerde tijdschriftNatuurmachine-intelligentiegepubliceerd en getiteld “Visuele representaties op hoog niveau in het menselijk brein zijn afgestemd op grote taalmodellen” meldt de Vrije Universiteit van Berlijn.
Het onderzoek heeft betrekking op de interactie tussen menselijke visuele perceptie en de representaties gegenereerd door LLM's, zoals die achter ChatGPT. Tot nu toe ontbrak het aan effectieve hulpmiddelen om de zeer abstracte betekenissen te analyseren die mensen aan visuele indrukken ontlenen. Het onderzoeksteam bereikte dit door ‘semantische vingerafdrukken’ te extraheren uit normale scènebeschrijvingen, die vervolgens werden gebruikt om functionele MRI-gegevens te modelleren die werden verzameld tijdens het bekijken van alledaagse beelden.
Innovatieve methoden voor data-analyse
Tot de onderzochte beelden behoren scènes als ‘kinderen die frisbee spelen op het schoolplein’ en ‘een hond die op een zeilboot staat’. De representaties gegenereerd door LLM's leidden tot nauwkeurige voorspellingen van hersenactiviteit, waardoor conclusies konden worden getrokken over wat er werd gezien. Deze methoden bleken effectiever dan veel huidige beeldclassificatiesystemen, wat het belang en de potentiële toepassingen van LLM's in de neurowetenschappen benadrukt.
Daarnaast werd het vermogen van computer vision-modellen om semantische vingerafdrukken rechtstreeks op basis van afbeeldingen te voorspellen onderzocht, wat het onderzoek verder zou kunnen bevorderen. Deze bevindingen zijn niet alleen van groot belang voor de neurowetenschappen, maar ook voor de ontwikkeling van intelligente systemen. Luidruchtig Fraunhofer IKS Het belang van op AI gebaseerde cognitieve systemen wordt steeds duidelijker omdat deze technologieën onmisbaar zijn in verschillende toepassingsgebieden, waaronder autonome voertuigen.
De uitdagingen op het gebied van AI en hoge beveiligingseisen
De complexiteit van grote taalmodellen en de aanhoudende onbegrijpelijkheid van dergelijke systemen brengen echter aanzienlijke uitdagingen met zich mee. David Bau, een computerwetenschapper aan de Northeastern University, beschrijft hoe traditionele software het mogelijk maakt problemen te identificeren, terwijl AI vaak fungeert als een ‘black box’ waarvan de exacte functionaliteit moeilijk te begrijpen is. Het onderzoeksveld van verklaarbare AI (XAI) wordt daarom steeds belangrijker om de interne logica en besluitvorming van AI-systemen beter te begrijpen Dat meldt Spektrum.de.
Omdat LLM's worden gebruikt voor complexe taken zoals medische consultaties of programmeren, is het essentieel dat hun beslissingen begrijpelijk zijn. De noodzaak om verklaringen te geven voor AI-systemen is essentieel, vooral bij toepassingen met een hoog risico. Bau wijst erop dat bedrijven als OpenAI hun broncode geheim houden, wat pogingen om transparant onderzoek te doen belemmert en daardoor de ontwikkeling van veilige, verklaarbare AI-systemen beperkt.
In de toekomst zou de synthese van inzichten uit hersenonderzoek en AI-ontwikkeling, zoals aangetoond in de huidige studie, een instrument kunnen zijn bij het overbruggen van de kloof tussen het begrip van mens en machine. Deze synergieën openen nieuwe perspectieven voor beide wetenschappelijke disciplines en staan op de drempel van baanbrekende vooruitgang in de ontwikkeling van intelligente systemen.