Odluka o dilemi: samovozeći automobili u moralnoj dilemi!
Istraživači sa Sveučilišta u Oldenburgu istražuju moralne odluke samovozećih automobila u situacijama dileme.

Odluka o dilemi: samovozeći automobili u moralnoj dilemi!
Dana 24. lipnja 2025., istraživači s Odsjeka za psihologiju Sveučilišta u Oldenburgu predstavili su važnu studiju o samovozećim automobilima, koja je objavljena u časopisu Znanstvena izvješća objavljena je. Njezino istraživanje ima za cilj povećati prihvaćanje autonomnih vozila, osobito kada su u pitanju složene moralne dileme. U tom kontekstu ispitane su dilema situacije u kojima autonomni automobili moraju donositi odluke koje mogu spasiti ili ugroziti živote.
Dobro poznati primjer je problem kolica, koji je izvorno formulirao Karl Engisch 1930. Ovaj misaoni eksperiment dobio je nove aspekte kroz tehnički razvoj. U svojoj su studiji znanstvenici iz Oldenburga prilagodili MIT-ov test Moral Machine. Ispitanici su suočeni s odlukama koje je donosila umjetna inteligencija kako bi se uočila razlika između ljudskih odluka i odluka strojeva. Mjerenja moždanih valova ispitanika pokazala su da se složeni kognitivni procesi mogu prepoznati nakon otprilike 0,3 sekunde. Ovi procesi odražavaju emocionalnu i moralnu procjenu situacije donošenja odluka.
Moralne dileme u fokusu
Jedna od ključnih dilema koju su istraživači procijenili uključuje odluku treba li samovozeći automobil izbjegavati psa ili pregaziti psa kada se oslobodi s povodca. Takve dileme jasno pokazuju da često ne postoji jasno ispravna odluka i da tehnički algoritmi za programiranje autonomnih vozila zahtijevaju jasne moralne smjernice. Različiti kulturološki utjecaji također utječu na moralne odluke: dok se u zapadnim kulturama "žene i djeca na prvom mjestu" često daje prioritet, u drugim kulturama mogu prevladati drugačije vrijednosti, na primjer u Japanu s davanjem prednosti starijim ljudima.
Studija pokazuje da kada postoje razlike između odluka ljudi i strojeva, dolazi do dva mikrovolta više uzbuđenja mozga. Taj nesklad traje nekoliko milisekundi, što ukazuje na emocionalni sukob koji se javlja u takvim dilemama. Kako bi dodatno promicali prihvaćanje samovozećih automobila, znanstvenici istražuju metode za analizu načina na koji se korisnici nose s odlukama koje njihova vozila donose u svakodnevnom životu i odgovaraju li te odluke njihovim vlastitim moralnim uvjerenjima.
Etika i predrasude u umjetnoj inteligenciji
Međutim, etički izazovi povezani s razvojem umjetne inteligencije (AI) daleko nadilaze pitanja upravljanja autonomnim vozilom. Prema članku autora Cosmo centar Umjetna inteligencija može analizirati ljudske moralne prosudbe i predviđati, ali podložna je značajnim pristranostima koje dovode u pitanje njezinu objektivnost. Etičke odluke koje donosi AI često se temelje na povijesnim i kulturnim predrasudama skrivenim u podacima o obuci.
Kako bi se odgovorilo na te izazove, preporučuje se diverzificirati podatke o obuci i implementirati poštene mehanizme kontrole. Na primjer, korištenje pristupa čovjeka u petlji moglo bi osigurati da se ljudska razmatranja i odgovornosti uzmu u obzir. Također se naglašava potreba za većom transparentnošću u procesima donošenja odluka AI kako bi etičke prosudbe bile razumljive i kako bi se pridonijelo svjesnom dizajnu algoritama.
Ukratko, razvoj samovozećih automobila i programiranje umjetne inteligencije otvara i tehnološka i etička pitanja. Kalaidos FH ističe da je suradnja između ljudi i strojeva ključna kako bi se prevladao izazov moralnih dilema pri korištenju umjetne inteligencije te u isto vrijeme preispitivale i definirale vlastite vrijednosti.