Dilemmabeslutet: självkörande bilar i ett moraliskt dilemma!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Forskare vid universitetet i Oldenburg undersöker självkörande bilars moraliska beslut i dilemmasituationer.

Forschende der Uni Oldenburg untersuchen die moralischen Entscheidungen selbstfahrender Autos in Dilemma-Situationen.
Forskare vid universitetet i Oldenburg undersöker självkörande bilars moraliska beslut i dilemmasituationer.

Dilemmabeslutet: självkörande bilar i ett moraliskt dilemma!

Den 24 juni 2025 presenterade forskare från institutionen för psykologi vid universitetet i Oldenburg en viktig studie om självkörande bilar, som publicerades i tidskriften Vetenskapliga rapporter publicerades. Hennes forskning syftar till att öka acceptansen för autonoma fordon, särskilt när komplexa moraliska dilemman är inblandade. I detta sammanhang undersöktes dilemmasituationer där autonoma bilar måste fatta beslut som kan rädda eller äventyra liv.

Ett välkänt exempel är vagnproblemet, som ursprungligen formulerades av Karl Engisch 1930. Detta tankeexperiment har fått nya aspekter genom teknisk utveckling. I sin studie anpassade Oldenburg-forskarna MIT:s Moral Machine-test. Testpersonerna konfronterades med de beslut som tagits av artificiell intelligens för att göra skillnaderna mellan mänskliga beslut och maskiner synliga. Mätningarna av försökspersonernas hjärnvågor visade att komplexa kognitiva processer kan kännas igen efter cirka 0,3 sekunder. Dessa processer återspeglar den känslomässiga och moraliska utvärderingen av beslutssituationen.

Moraliska dilemman i fokus

Ett av de viktigaste dilemman som forskarna bedömde handlar om att bestämma om en självkörande bil ska undvika en hund eller köra på en hund när den lossnar från kopplet. Sådana dilemmasituationer gör det tydligt att det ofta inte finns något klart korrekt beslut och att tekniska algoritmer för programmering av autonoma fordon kräver tydliga moraliska riktlinjer. Olika kulturella influenser påverkar också moraliska beslut: Medan i västerländska kulturer ofta "kvinnor och barn först" prioriteras, kan i andra kulturer ett annat värde råda, till exempel i Japan med en preferens för äldre människor.

Studien visar att när det finns skillnader mellan människors och maskiners beslut finns det upp till två mikrovolt högre hjärnupphetsning. Denna diskrepans varar i flera millisekunder, vilket indikerar den känslomässiga konflikt som uppstår i sådana dilemman. För att ytterligare främja acceptansen av självkörande bilar forskar forskare på metoder för att analysera hur användare hanterar de beslut som deras fordon fattar i vardagen och om dessa beslut motsvarar deras egen moraliska övertygelse.

Etik och fördomar i AI

De etiska utmaningarna i samband med utvecklingen av artificiell intelligens (AI) går dock långt utöver frågorna om autonom fordonskontroll. Enligt en artikel av Cosmo Center AI kan analysera mänskliga moraliska bedömningar och göra förutsägelser, men den är föremål för betydande fördomar som ifrågasätter dess objektivitet. Etiska beslut som tas av AI är ofta baserade på historiska och kulturella fördomar dolda i träningsdata.

För att ta itu med dessa utmaningar rekommenderas det att diversifiera utbildningsdata och implementera rättvisa kontrollmekanismer. Om man till exempel använder ett tillvägagångssätt för människan i slinga kan säkerställa att mänskliga överväganden och ansvar tas i beaktande. Behovet av mer transparens i AI-beslutsprocesser betonas också för att göra etiska bedömningar begripliga och för att bidra till en medveten design av algoritmer.

Sammanfattningsvis väcker utvecklingen av självkörande bilar och programmeringen av AI både tekniska och etiska frågor. Kalaidos FH påpekar att samarbete mellan människor och maskiner är väsentligt för att övervinna utmaningen med moraliska dilemman vid användning av AI och samtidigt ifrågasätta och definiera sina egna värderingar.