Rozhodnutí o dilematu: samořídící auta v morálním dilematu!
Vědci z univerzity v Oldenburgu zkoumají morální rozhodnutí samořiditelných aut v situacích dilemat.

Rozhodnutí o dilematu: samořídící auta v morálním dilematu!
Dne 24. června 2025 představili vědci z katedry psychologie na univerzitě v Oldenburgu důležitou studii o samořiditelných autech, která byla publikována v časopise Vědecké zprávy byla zveřejněna. Její výzkum se zaměřuje na zvýšení akceptace autonomních vozidel, zejména pokud jde o složitá morální dilemata. V této souvislosti byly zkoumány dilema situace, ve kterých musí autonomní auta činit rozhodnutí, která mohou zachránit nebo ohrozit životy.
Známým příkladem je problém trolejbusu, který původně formuloval Karl Engisch v roce 1930. Tento myšlenkový experiment získal díky technickému vývoji nové aspekty. Ve své studii vědci z Oldenburgu přizpůsobili test Moral Machine MIT. Testované subjekty byly konfrontovány s rozhodnutími umělé inteligence, aby byly vidět nesrovnalosti mezi lidskými rozhodnutími a rozhodnutími strojů. Měření mozkových vln subjektů ukázala, že složité kognitivní procesy lze rozpoznat přibližně za 0,3 sekundy. Tyto procesy odrážejí emocionální a morální hodnocení rozhodovací situace.
Morální dilemata v centru pozornosti
Jedním z klíčových dilemat, které vědci posuzovali, je rozhodnutí, zda by se samořídící auto mělo vyhýbat psovi nebo přejet psa, když se uvolní z vodítka. Takové dilema ukazují, že často neexistuje žádné jasně správné rozhodnutí a že technické algoritmy pro programování autonomních vozidel vyžadují jasná morální pravidla. Odlišné kulturní vlivy ovlivňují i morální rozhodnutí: Zatímco v západních kulturách jsou často upřednostňovány „ženy a děti na prvním místě“, v jiných kulturách může převládat jiná hodnota, například v Japonsku upřednostňují starší lidi.
Studie ukazuje, že když existují rozdíly mezi rozhodováním lidí a strojů, dochází až o dva mikrovolty k vyššímu nabuzení mozku. Tento nesoulad trvá několik milisekund, což naznačuje emocionální konflikt, který v takových dilematech vzniká. Aby dále podpořili akceptaci samořídících aut, vědci zkoumají metody, jak analyzovat, jak se uživatelé vyrovnávají s rozhodnutími, která jejich vozidla udělají v každodenním životě, a zda tato rozhodnutí odpovídají jejich vlastním morálním přesvědčením.
Etika a zaujatost v AI
Etické výzvy spojené s vývojem umělé inteligence (AI) však dalece přesahují problematiku autonomního řízení vozidel. Podle článku od Cosmo Center Umělá inteligence může analyzovat lidské morální úsudky a předvídat, ale podléhá významným zaujatostem, které zpochybňují její objektivitu. Etická rozhodnutí ze strany AI jsou často založena na historických a kulturních předsudcích skrytých v trénovacích datech.
K řešení těchto problémů se doporučuje diverzifikovat školicí data a zavést spravedlivé kontrolní mechanismy. Například použití přístupu člověka ve smyčce by mohlo zajistit, že budou zohledněny lidské ohledy a odpovědnosti. Je také zdůrazněna potřeba větší transparentnosti v rozhodovacích procesech AI, aby byly etické úsudky srozumitelné a přispělo se k vědomému návrhu algoritmů.
Stručně řečeno, vývoj samořídících aut a programování AI vyvolává technologické i etické otázky. Kalaidos FH poukazuje na to, že spolupráce mezi lidmi a stroji je nezbytná k překonání morálních dilemat při používání umělé inteligence a zároveň ke zpochybnění a definování vlastních hodnot.