Hjerne og AI: Hvilke fascinerende sammenhenger avslører den nye studien?

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

En ny studie fra Universitetet i Osnabrück, hvor prof. Dr. Tim C. Kietzmann, som er involvert, undersøker hvordan hjernen behandler visuell informasjon og kobler den sammen med språk. Publisert i «Nature Machine Intelligence», belyser den sammenhenger mellom hjerneaktivitet og AI-modeller.

Eine neue Studie der Uni Osnabrück, an der Prof. Dr. Tim C. Kietzmann beteiligt ist, untersucht, wie das Gehirn visuelle Informationen verarbeitet und mit Sprache verknüpft. Veröffentlicht in "Nature Machine Intelligence", beleuchtet sie Verbindungen zwischen Hirnaktivität und KI-Modellen.
En ny studie fra Universitetet i Osnabrück, hvor prof. Dr. Tim C. Kietzmann, som er involvert, undersøker hvordan hjernen behandler visuell informasjon og kobler den sammen med språk. Publisert i «Nature Machine Intelligence», belyser den sammenhenger mellom hjerneaktivitet og AI-modeller.

Hjerne og AI: Hvilke fascinerende sammenhenger avslører den nye studien?

En ny studie publisert i Nature Machine Intelligence, undersøker i dybden hvordan den menneskelige hjernen behandler visuell informasjon og kobler den til språk. Under ledelse av prof. Dr. Tim C. Kietzmann fra Universitetet i Osnabrück, en av de første forfatterne av studien, utviklet en innovativ tilnærming for å utforske samspillet mellom visuell persepsjon og språklige modeller.

Som en del av forskningen ble forsøkspersoner vist bilder i en magnetisk resonansavbildning (MRI)-skanner mens hjerneaktiviteten deres ble registrert. Studien antok at det visuelle systemet behandler informasjon på en måte som er forenlig med språklige strukturer. Prof. Dr. Adrien Doerig, som nå jobber ved Free University of Berlin, beskrev denne mulige forbindelsen som en universell "lingua franca" mellom forskjellige hjerneregioner.

Kunstig intelligens og menneskelig hjerneaktivitet

Et fremragende resultat av studien er at dagens språkmodeller, spesielt store språkmodeller, viser bemerkelsesverdige likheter i sin aktivitet med det menneskelige visuelle systemet. De kunstige nevrale nettverkene som ble trent av studien var i stand til nøyaktig å forutsi språklige representasjoner fra bilder. Disse modellene overgår mange nåværende AI-teknologier i deres evne til å modellere hjerneaktivitet.

Et sentralt fokus er på funksjonen til frontallappen, som er spesielt aktiv ved behandling av visuell informasjon. Nyere funn understreker at frontallappen ikke bare er ansvarlig for visuell persepsjon, men også for kognitive prosesser som tenkning og beslutningstaking. Under forskningen så 13 deltakere totalt 28 bilder - inkludert ansikter og kjente steder - med hjerneaktiviteten målt flere ganger over tid.

Resultatene viste at aktiveringer i frontallappen hadde sterkere koblinger til tekstbaserte nettverk, mens korrelasjoner med visuelle nettverk var lavere. Dette tyder på at hjernen knytter visuell informasjon nært til språklig prosessering, et funn som utfordrer det tradisjonelle synet om at frontallappen utelukkende er dedikert til motoriske oppgaver og beslutningsoppgaver. Studien antyder at når bildene ble presentert, korrelerte aktivitet i frontallappen med tekstrelaterte responser over lengre tid.

Visuell persepsjon og nye forskningstilnærminger

Et annet viktig aspekt ved forskningen er funksjonen til de ulike synsfeltene. Det foveale synsfeltet, som kun utgjør 1 % av det totale synsfeltet, spiller en avgjørende rolle i aktiviteter som lesing, mens perifert syn er avgjørende for orientering og navigering. Rollen til perifert syn vies ofte mindre oppmerksomhet, noe som undersøkes i PERFORM-prosjektet. Dette fremhever kompleksiteten til transsakkadisk persepsjon, en prosess som fortsatt er dårlig forstått.

I tillegg presterte barn dårligere enn voksne på tester av perifer posisjonsoppfatning, men de viste raskere korreksjoner gjennom øyebevegelser. Dette antyder at hjernen sømløst fyller sensoriske informasjonshull, og understreker relevansen av flerdimensjonal persepsjon. Disse funnene blir nå innlemmet i et nytt forskningsprosjekt kalt SENCES, som omhandler fullføring av sensorisk informasjon i hjernen.

Fortsatt forskning på disse områdene kan ikke bare utdype vår forståelse av det komplekse samspillet mellom visuell persepsjon og språk, men også ha praktiske anvendelser for å forbedre hjerne-datamaskin-grensesnitt og utvikle visuelle proteser for personer med synshemming. Gitt det store antallet uoppdagede parametere, er det fortsatt spennende å se hva fremtidig forskning vil avdekke fra disse nylige funnene.