Rewolucja w neurobiologii: sztuczna inteligencja dekoduje ludzki mózg!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

FU Berlin bada związek między dużymi modelami językowymi a ludzkim rozumieniem wizualnym, co opublikowano w „Nature”.

Die FU Berlin forscht über die Verbindung zwischen großen Sprachmodellen und menschlichem visuellem Verständnis, veröffentlicht in "Nature".
FU Berlin bada związek między dużymi modelami językowymi a ludzkim rozumieniem wizualnym, co opublikowano w „Nature”.

Rewolucja w neurobiologii: sztuczna inteligencja dekoduje ludzki mózg!

Nowe badanie przeprowadzone przez zespół kierowany przez prof. dr Adriena Doeriga z Wolnego Uniwersytetu w Berlinie pokazuje, że duże modele językowe (LLM) są w stanie przewidzieć, jak ludzki mózg reaguje na bodźce wzrokowe. Wyniki badań opublikowano w renomowanym czasopiśmieInteligencja maszyny naturyopublikowane i zatytułowane „Wysokopoziomowe reprezentacje wizualne w ludzkim mózgu są zgodne z dużymi modelami językowymi” – podaje Wolny Uniwersytet w Berlinie.

Dochodzenie dotyczy interakcji między ludzką percepcją wzrokową a reprezentacjami generowanymi przez LLM, takie jak te stojące za ChatGPT. Do tej pory brakowało skutecznych narzędzi do analizy wysoce abstrakcyjnych znaczeń, jakie ludzie czerpią z wrażeń wzrokowych. Zespół badawczy osiągnął to poprzez wyodrębnienie „odcisków semantycznych” z opisów normalnych scen, które następnie wykorzystano do modelowania funkcjonalnych danych MRI zebranych podczas oglądania codziennych obrazów.

Innowacyjne metody analizy danych

Przeanalizowane obrazy obejmują sceny takie jak „dzieci bawiące się we frisbee na boisku szkolnym” czy „pies stojący na żaglówce”. Reprezentacje generowane przez LLM umożliwiły dokładne przewidywanie aktywności mózgu, umożliwiając wyciągnięcie wniosków na temat tego, co zostało zaobserwowane. Metody te okazały się skuteczniejsze niż wiele obecnych systemów klasyfikacji obrazów, co podkreśliło znaczenie i potencjalne zastosowania LLM w neurologii.

Ponadto zbadano zdolność komputerowych modeli widzenia do przewidywania odcisków semantycznych bezpośrednio na podstawie obrazów, co może przyczynić się do dalszego postępu w badaniach. Odkrycia te mają ogromne znaczenie nie tylko dla neuronauki, ale także dla rozwoju inteligentnych systemów. Głośny Fraunhofera IKS Znaczenie systemów poznawczych opartych na sztucznej inteligencji staje się coraz bardziej oczywiste, ponieważ technologie te są niezbędne w różnych obszarach zastosowań, w tym w pojazdach autonomicznych.

Wyzwania związane ze sztuczną inteligencją i wysokie wymagania dotyczące bezpieczeństwa

Jednak złożoność dużych modeli językowych i utrzymująca się niezrozumiałość takich systemów stwarzają poważne wyzwania. David Bau, informatyk z Northeastern University, opisuje, jak tradycyjne oprogramowanie pozwala na identyfikację problemów, podczas gdy sztuczna inteligencja często działa jak „czarna skrzynka”, której dokładne działanie jest trudne do zrozumienia. Pole badawcze wyjaśnialnej sztucznej inteligencji (XAI) staje się zatem coraz ważniejsze, aby lepiej zrozumieć wewnętrzną logikę i proces decyzyjny systemów AI poinformował Spektrum.de.

Ponieważ LLM są wykorzystywane do złożonych zadań, takich jak konsultacje lekarskie czy programowanie, istotne jest, aby ich decyzje były zrozumiałe. Konieczność udzielania wyjaśnień dotyczących systemów sztucznej inteligencji jest niezbędna, szczególnie w zastosowaniach wysokiego ryzyka. Bau zwraca uwagę, że firmy takie jak OpenAI utrzymują swój kod źródłowy w tajemnicy, co utrudnia wysiłki na rzecz prowadzenia przejrzystych badań, a tym samym ogranicza rozwój bezpiecznych i możliwych do wytłumaczenia systemów sztucznej inteligencji.

W przyszłości synteza wniosków z badań mózgu i rozwoju sztucznej inteligencji, jak wykazano w obecnym badaniu, może odegrać kluczową rolę w zasypaniu luki między zrozumieniem ludzi i maszyn. Te synergie otwierają nowe perspektywy dla obu dyscyplin naukowych i stoją u progu przełomowych postępów w rozwoju inteligentnych systemów.