Odločitev o dilemi: samovozeči avtomobili v moralni dilemi!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Raziskovalci na Univerzi v Oldenburgu preiskujejo moralne odločitve samovozečih avtomobilov v dilemah.

Forschende der Uni Oldenburg untersuchen die moralischen Entscheidungen selbstfahrender Autos in Dilemma-Situationen.
Raziskovalci na Univerzi v Oldenburgu preiskujejo moralne odločitve samovozečih avtomobilov v dilemah.

Odločitev o dilemi: samovozeči avtomobili v moralni dilemi!

24. junija 2025 so raziskovalci z Oddelka za psihologijo na Univerzi v Oldenburgu predstavili pomembno študijo o samovozečih avtomobilih, ki je bila objavljena v reviji Znanstvena poročila je bil objavljen. Njena raziskava želi povečati sprejemanje avtonomnih vozil, zlasti ko gre za kompleksne moralne dileme. V tem kontekstu so bile preučene dileme, v katerih morajo avtonomni avtomobili sprejemati odločitve, ki lahko rešijo ali ogrozijo življenja.

Dobro znan primer je problem vozička, ki ga je prvotno oblikoval Karl Engisch leta 1930. Ta miselni eksperiment je s tehničnim razvojem dobil nove vidike. V svoji študiji so znanstveniki iz Oldenburga prilagodili test moralnega stroja MIT. Preizkušance so soočili z odločitvami, ki jih je sprejela umetna inteligenca, da bi bila vidna neskladja med človeškimi odločitvami in odločitvami strojev. Meritve možganskih valov subjektov so pokazale, da je kompleksne kognitivne procese mogoče prepoznati po približno 0,3 sekunde. Ti procesi odražajo čustveno in moralno vrednotenje situacije odločanja.

V središču pozornosti so moralne dileme

Ena od ključnih dilem, ki so jih ocenili raziskovalci, vključuje odločitev, ali naj se samovozeči avtomobil izogne ​​psu ali povozi psa, ko se zveže s povodca. Takšne dileme jasno pokažejo, da očitno pravilne odločitve pogosto ni in da tehnični algoritmi za programiranje avtonomnih vozil zahtevajo jasne moralne smernice. Različni kulturni vplivi vplivajo tudi na moralne odločitve: medtem ko imajo v zahodnih kulturah »ženske in otroci na prvem mestu« pogosto prednost, bi lahko v drugih kulturah prevladale drugačne vrednote, na primer na Japonskem s prednostjo starejših.

Študija je pokazala, da kadar obstajajo razlike med odločitvami ljudi in strojev, pride do do dva mikrovolta večja vzburjenost možganov. To neskladje traja nekaj milisekund, kar kaže na čustveni konflikt, ki se pojavi v takih dilemah. Za nadaljnje spodbujanje sprejemanja samovozečih avtomobilov znanstveniki raziskujejo metode za analizo, kako se uporabniki soočajo z odločitvami, ki jih njihova vozila sprejemajo v vsakdanjem življenju, in ali te odločitve ustrezajo njihovim lastnim moralnim prepričanjem.

Etika in pristranskost v AI

Vendar pa etični izzivi, povezani z razvojem umetne inteligence (AI), daleč presegajo vprašanja avtonomnega upravljanja vozil. Glede na članek avtorja Cosmo center Umetna inteligenca lahko analizira človeške moralne sodbe in daje napovedi, vendar je podvržena precejšnjim pristranskosti, ki postavljajo pod vprašaj njeno objektivnost. Etične odločitve, ki jih sprejema umetna inteligenca, pogosto temeljijo na zgodovinskih in kulturnih pristranskostih, skritih v podatkih o usposabljanju.

Za reševanje teh izzivov je priporočljivo diverzificirati podatke o usposabljanju in izvajati poštene mehanizme nadzora. Na primer, uporaba pristopa človek v zanki bi lahko zagotovila, da se upoštevajo človeški vidiki in odgovornosti. Poudarjena je tudi potreba po večji preglednosti v postopkih odločanja umetne inteligence, da bi bile etične presoje razumljive in da bi prispevali k zavestnemu oblikovanju algoritmov.

Če povzamemo, razvoj samovozečih avtomobilov in programiranje umetne inteligence sproža tako tehnološka kot etična vprašanja. Kalaidos FH poudarja, da je sodelovanje med ljudmi in stroji bistvenega pomena za premagovanje izzivov moralnih dilem pri uporabi umetne inteligence ter hkrati prevpraševanje in definiranje lastnih vrednot.