Revolūcija neirozinātnē: AI atkodē cilvēka smadzenes!
FU Berlin pēta saikni starp lielo valodu modeļiem un cilvēka vizuālo izpratni, kas publicēta "Nature".

Revolūcija neirozinātnē: AI atkodē cilvēka smadzenes!
Jauns pētījums, ko veica komanda, kuru vadīja prof. Dr. Adrien Doerig no Berlīnes Brīvās universitātes, liecina, ka lielie valodu modeļi (LLM) spēj paredzēt, kā cilvēka smadzenes reaģē uz vizuāliem stimuliem. Šis pētījums tika publicēts slavenajā žurnālāDabas mašīnas intelektspublicēts ar nosaukumu “Augsta līmeņa vizuālie attēlojumi cilvēka smadzenēs ir saskaņoti ar lieliem valodas modeļiem” ziņo Berlīnes Brīvā universitāte.
Izmeklēšana attiecas uz mijiedarbību starp cilvēka vizuālo uztveri un LLM radītajiem priekšstatiem, piemēram, tiem, kas atrodas aiz ChatGPT. Līdz šim ir trūcis efektīvu rīku, lai analizētu ļoti abstraktās nozīmes, ko cilvēki iegūst no vizuāliem iespaidiem. Pētnieku komanda to panāca, no parastajiem ainu aprakstiem iegūstot "semantiskos pirkstu nospiedumus", kas pēc tam tika izmantoti, lai modelētu funkcionālos MRI datus, kas savākti, skatoties ikdienas attēlus.
Inovatīvas metodes datu analīzei
Pārbaudītajos attēlos ir iekļautas tādas ainas kā “bērni, kas skolas pagalmā spēlē frisbiju” un “suns stāv uz buru laivas”. LLM radītie priekšstati ļāva precīzi prognozēt smadzeņu darbību, ļaujot izdarīt secinājumus par redzēto. Šīs metodes izrādījās efektīvākas nekā daudzas pašreizējās attēlu klasifikācijas sistēmas, uzsverot LLM nozīmi un iespējamos pielietojumus neirozinātnēs.
Turklāt tika pētīta datoru redzes modeļu spēja paredzēt semantiskos pirkstu nospiedumus tieši no attēliem, kas varētu turpināt pētniecību. Šie atklājumi ir ļoti svarīgi ne tikai neirozinātnei, bet arī viedo sistēmu attīstībai. Skaļi Fraunhofers IKS Uz AI balstītu kognitīvo sistēmu nozīme kļūst arvien skaidrāka, jo šīs tehnoloģijas ir neaizstājamas dažādās pielietojuma jomās, tostarp autonomos transportlīdzekļos.
AI izaicinājumi un augstās drošības prasības
Tomēr lielo valodu modeļu sarežģītība un šādu sistēmu pastāvīgā nesaprotamība rada ievērojamas problēmas. Deivids Bau, Ziemeļaustrumu universitātes datorzinātnieks, apraksta, kā tradicionālā programmatūra ļauj identificēt problēmas, savukārt mākslīgais intelekts bieži darbojas kā “melnā kaste”, kuras precīzu funkcionalitāti ir grūti saprast. Tāpēc izskaidrojamā AI (XAI) pētniecības joma kļūst arvien svarīgāka, lai labāk izprastu AI sistēmu iekšējo loģiku un lēmumu pieņemšanu. ziņo Spektrum.de.
Tā kā LLM tiek izmantoti sarežģītiem uzdevumiem, piemēram, medicīniskām konsultācijām vai programmēšanai, ir svarīgi, lai viņu lēmumi būtu saprotami. Nepieciešamība sniegt paskaidrojumus par AI sistēmām ir būtiska, jo īpaši augsta riska lietojumos. Bau norāda, ka tādi uzņēmumi kā OpenAI saglabā savu pirmkoda noslēpumu, kas kavē centienus veikt pārredzamu izpēti un tādējādi ierobežo drošu, izskaidrojamu AI sistēmu izstrādi.
Nākotnē smadzeņu pētniecības un AI attīstības ieskatu sintēze, kā parādīts pašreizējā pētījumā, varētu būt noderīga, lai mazinātu plaisu starp cilvēka un mašīnas izpratni. Šīs sinerģijas paver jaunas perspektīvas abām zinātnes disciplīnām un atrodas uz revolucionāra progresa sliekšņa viedo sistēmu attīstībā.