Rozhodnutie o dileme: samoriadiace autá v morálnej dileme!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Vedci z univerzity v Oldenburgu skúmajú morálne rozhodnutia samoriadiacich áut v dilemových situáciách.

Forschende der Uni Oldenburg untersuchen die moralischen Entscheidungen selbstfahrender Autos in Dilemma-Situationen.
Vedci z univerzity v Oldenburgu skúmajú morálne rozhodnutia samoriadiacich áut v dilemových situáciách.

Rozhodnutie o dileme: samoriadiace autá v morálnej dileme!

24. júna 2025 predstavili vedci z Katedry psychológie Univerzity v Oldenburgu dôležitú štúdiu o samoriadiacich autách, ktorá bola publikovaná v časopise Vedecké správy bola zverejnená. Jej výskum sa zameriava na zvýšenie akceptácie autonómnych vozidiel, najmä ak ide o zložité morálne dilemy. V tejto súvislosti sa skúmali dilemové situácie, v ktorých musia autonómne autá robiť rozhodnutia, ktoré môžu zachrániť alebo ohroziť životy.

Známym príkladom je problém s vozíkom, ktorý pôvodne sformuloval Karl Engisch v roku 1930. Tento myšlienkový experiment získal nové aspekty prostredníctvom technického vývoja. Vedci z Oldenburgu vo svojej štúdii upravili test Moral Machine od MIT. Testované osoby boli konfrontované s rozhodnutiami umelej inteligencie, aby boli viditeľné rozdiely medzi ľudskými rozhodnutiami a rozhodnutiami strojov. Merania mozgových vĺn subjektov ukázali, že zložité kognitívne procesy možno rozpoznať po približne 0,3 sekunde. Tieto procesy odrážajú emocionálne a morálne hodnotenie rozhodovacej situácie.

Morálne dilemy v centre pozornosti

Jedna z kľúčových dilem, ktorú výskumníci zhodnotili, zahŕňa rozhodnutie, či sa samoriadiace auto má vyhýbať psovi, alebo či má psa prejsť, keď sa uvoľní z vodítka. Takéto dilemové situácie jasne ukazujú, že často neexistuje jednoznačné správne rozhodnutie a že technické algoritmy na programovanie autonómnych vozidiel vyžadujú jasné morálne usmernenia. Rôzne kultúrne vplyvy ovplyvňujú aj morálne rozhodnutia: Zatiaľ čo v západných kultúrach sú často uprednostňované „ženy a deti na prvom mieste“, v iných kultúrach môže prevládať iná hodnota, napríklad v Japonsku uprednostňujú starší ľudia.

Štúdia ukazuje, že keď existujú rozdiely medzi rozhodnutiami ľudí a strojov, dochádza až o dva mikrovolty k vyššiemu nabudeniu mozgu. Tento nesúlad trvá niekoľko milisekúnd, čo naznačuje emocionálny konflikt, ktorý pri takýchto dilemách vzniká. Aby ešte viac podporili akceptáciu samoriadiacich áut, vedci skúmajú metódy na analýzu toho, ako sa používatelia vyrovnávajú s rozhodnutiami, ktoré ich vozidlá robia v každodennom živote, a či tieto rozhodnutia zodpovedajú ich vlastným morálnym presvedčeniam.

Etika a zaujatosť v AI

Etické výzvy spojené s vývojom umelej inteligencie (AI) však ďaleko presahujú problematiku autonómneho riadenia vozidiel. Podľa článku od Cosmo Center Umelá inteligencia môže analyzovať ľudské morálne úsudky a predpovedať, ale podlieha významným zaujatostiam, ktoré spochybňujú jej objektivitu. Etické rozhodnutia AI sú často založené na historických a kultúrnych predsudkoch skrytých v tréningových údajoch.

Na riešenie týchto výziev sa odporúča diverzifikovať školiace údaje a zaviesť spravodlivé kontrolné mechanizmy. Napríklad použitie prístupu „človek v slučke“ by mohlo zabezpečiť, že sa zohľadnia ľudské hľadiská a zodpovednosť. Zdôrazňuje sa aj potreba väčšej transparentnosti v rozhodovacích procesoch AI, aby boli etické úsudky zrozumiteľné a aby sa prispelo k vedomému návrhu algoritmov.

Stručne povedané, vývoj samoriadiacich áut a programovanie AI vyvoláva technologické aj etické otázky. Kalaidos FH poukazuje na to, že spolupráca medzi ľuďmi a strojmi je nevyhnutná na prekonanie morálnych dilem pri používaní AI a zároveň na spochybňovanie a definovanie vlastných hodnôt.