Revoluce v neurovědách: AI dekóduje lidský mozek!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

FU Berlin zkoumá spojení mezi velkými jazykovými modely a lidským vizuálním porozuměním, publikovaným v „Přírodě“.

Die FU Berlin forscht über die Verbindung zwischen großen Sprachmodellen und menschlichem visuellem Verständnis, veröffentlicht in "Nature".
FU Berlin zkoumá spojení mezi velkými jazykovými modely a lidským vizuálním porozuměním, publikovaným v „Přírodě“.

Revoluce v neurovědách: AI dekóduje lidský mozek!

Nová studie provedená týmem vedeným prof. Dr. Adrienem Doerigem ze Svobodné univerzity v Berlíně ukazuje, že velké jazykové modely (LLM) jsou schopny předpovědět, jak lidský mozek reaguje na vizuální podněty. Tento výzkum byl publikován v renomovaném časopiseInteligence přírodních strojůpublikováno s názvem „Vizuální reprezentace na vysoké úrovni v lidském mozku jsou v souladu s velkými jazykovými modely“ informuje Svobodná univerzita v Berlíně.

Výzkum se týká interakce mezi lidským vizuálním vnímáním a reprezentacemi generovanými LLM, jako jsou ty, které stojí za ChatGPT. Až dosud chyběly účinné nástroje k analýze vysoce abstraktních významů, které lidé získávají z vizuálních dojmů. Výzkumný tým toho dosáhl extrakcí „sémantických otisků prstů“ z normálních popisů scén, které pak byly použity k modelování funkčních dat MRI shromážděných při prohlížení každodenních snímků.

Inovativní metody pro analýzu dat

Zkoumané snímky zahrnují scény jako „děti hrající frisbee na školním dvoře“ a „pes stojící na plachetnici“. Reprezentace generované LLM vedly k přesným předpovědím mozkové aktivity, což umožnilo vyvodit závěry o tom, co bylo vidět. Tyto metody se ukázaly být účinnější než mnoho současných systémů klasifikace snímků, což zdůrazňuje význam a potenciální aplikace LLM v neurovědách.

Kromě toho byla zkoumána schopnost modelů počítačového vidění předpovídat sémantické otisky prstů přímo z obrázků, což by mohlo dále posunout výzkum. Tyto poznatky mají velký význam nejen pro neurovědu, ale také pro vývoj inteligentních systémů. Hlasitý Fraunhofer IKS Význam kognitivních systémů založených na umělé inteligenci je stále jasnější, protože tyto technologie jsou nepostradatelné v různých oblastech použití, včetně autonomních vozidel.

Výzvy v oblasti AI a vysoké požadavky na zabezpečení

Složitost velkých jazykových modelů a přetrvávající nesrozumitelnost takových systémů však představují značné problémy. David Bau, počítačový vědec z Northeastern University, popisuje, jak tradiční software umožňuje identifikovat problémy, zatímco AI často funguje jako „černá skříňka“, jejíž přesné funkce je obtížné pochopit. Oblast výzkumu vysvětlitelné umělé inteligence (XAI) je proto stále důležitější pro lepší pochopení vnitřní logiky a rozhodování systémů umělé inteligence. Informovalo o tom Spektrum.de.

Vzhledem k tomu, že LLM se používají pro složité úkoly, jako jsou lékařské konzultace nebo programování, je nezbytné, aby jejich rozhodnutí byla srozumitelná. Potřeba poskytnout vysvětlení pro systémy AI je zásadní, zejména ve vysoce rizikových aplikacích. Bau poukazuje na to, že společnosti jako OpenAI udržují svůj zdrojový kód v tajnosti, což brání snahám o transparentní výzkum, a proto omezuje vývoj bezpečných a vysvětlitelných systémů umělé inteligence.

V budoucnu by syntéza poznatků z výzkumu mozku a vývoje umělé inteligence, jak ukazuje současná studie, mohla pomoci překlenout propast mezi lidským a strojovým chápáním. Tyto synergie otevírají oběma vědním oborům nové perspektivy a stojí na prahu převratných pokroků ve vývoji inteligentních systémů.