Revolucija u neuroznanosti: AI dekodira ljudski mozak!
FU Berlin istražuje vezu između velikih jezičnih modela i ljudskog vizualnog razumijevanja, objavljeno u "Nature".

Revolucija u neuroznanosti: AI dekodira ljudski mozak!
Nova studija koju je proveo tim predvođen prof. dr. Adrienom Doerigom sa Slobodnog sveučilišta u Berlinu pokazuje da veliki jezični modeli (LLM) mogu predvidjeti kako ljudski mozak reagira na vizualne podražaje. Ovo istraživanje objavljeno je u renomiranom časopisuStrojna inteligencija prirodeobjavljeno pod naslovom “Vizualne reprezentacije visoke razine u ljudskom mozgu usklađene su s velikim jezičnim modelima” javlja Slobodno sveučilište u Berlinu.
Istraživanje se odnosi na interakciju između ljudske vizualne percepcije i prikaza koje generiraju LLM-ovi, poput onih koji stoje iza ChatGPT-a. Do sada je nedostajalo učinkovitih alata za analizu visoko apstraktnih značenja koja ljudi izvlače iz vizualnih dojmova. Istraživački tim je to postigao izvlačenjem "semantičkih otisaka prstiju" iz normalnih opisa scene, koji su zatim korišteni za modeliranje funkcionalnih MRI podataka prikupljenih tijekom gledanja svakodnevnih slika.
Inovativne metode za analizu podataka
Ispitane slike uključuju scene kao što su "djeca koja igraju frizbi u školskom dvorištu" i "pas koji stoji na jedrilici". Reprezentacije koje generiraju LLM-ovi dovele su do točnih predviđanja aktivnosti mozga, što je omogućilo izvođenje zaključaka o onome što je viđeno. Ove su se metode pokazale učinkovitijima od mnogih trenutnih sustava klasifikacije slika, ističući važnost i potencijalnu primjenu LLM-a u neuroznanosti.
Dodatno, istražena je sposobnost modela računalnog vida da predvidi semantičke otiske izravno iz slika, što bi moglo dodatno unaprijediti istraživanje. Ova otkrića su od velike važnosti ne samo za neuroznanost, već i za razvoj inteligentnih sustava. Glasno Fraunhofer IKS Važnost kognitivnih sustava temeljenih na umjetnoj inteligenciji postaje sve jasnija jer su te tehnologije nezamjenjive u različitim područjima primjene, uključujući autonomna vozila.
Izazovi u AI i visoki sigurnosni zahtjevi
Međutim, složenost velikih jezičnih modela i stalna nerazumljivost takvih sustava predstavljaju značajne izazove. David Bau, računalni znanstvenik na Sveučilištu Northeastern, opisuje kako tradicionalni softver omogućuje prepoznavanje problema, dok AI često djeluje kao "crna kutija" čiju je točnu funkcionalnost teško razumjeti. Istraživačko polje objašnjive umjetne inteligencije (XAI) stoga postaje sve važnije za bolje razumijevanje unutarnje logike i donošenja odluka sustava umjetne inteligencije objavio je Spektrum.de.
Budući da se LLM-ovi koriste za složene zadatke kao što su medicinske konzultacije ili programiranje, bitno je da su njihove odluke razumljive. Potreba za pružanjem objašnjenja za sustave umjetne inteligencije ključna je, posebno u visokorizičnim aplikacijama. Bau ističe da tvrtke poput OpenAI-ja čuvaju svoj izvorni kod u tajnosti, što ometa napore da se provedu transparentna istraživanja i stoga ograničava razvoj sigurnih, objašnjivih AI sustava.
U budućnosti bi sinteza uvida iz istraživanja mozga i razvoja umjetne inteligencije, kao što je prikazano u trenutnoj studiji, mogla biti ključna u premošćivanju jaza između ljudskog i strojnog razumijevanja. Ove sinergije otvaraju nove perspektive za obje znanstvene discipline i na pragu su revolucionarnog napretka u razvoju inteligentnih sustava.