Dilemmabeslutningen: selvkørende biler i et moralsk dilemma!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Forskere ved universitetet i Oldenburg undersøger selvkørende bilers moralske beslutninger i dilemmasituationer.

Forschende der Uni Oldenburg untersuchen die moralischen Entscheidungen selbstfahrender Autos in Dilemma-Situationen.
Forskere ved universitetet i Oldenburg undersøger selvkørende bilers moralske beslutninger i dilemmasituationer.

Dilemmabeslutningen: selvkørende biler i et moralsk dilemma!

Den 24. juni 2025 præsenterede forskere fra Institut for Psykologi ved Universitetet i Oldenburg en vigtig undersøgelse om selvkørende biler, som blev offentliggjort i tidsskriftet Videnskabelige rapporter blev offentliggjort. Hendes forskning har til formål at øge accepten af ​​autonome køretøjer, især når komplekse moralske dilemmaer er involveret. I denne sammenhæng blev dilemmasituationer undersøgt, hvor selvkørende biler skal træffe beslutninger, der kan redde eller bringe liv i fare.

Et velkendt eksempel er trolleyproblemet, som oprindeligt blev formuleret af Karl Engisch i 1930. Dette tankeeksperiment har fået nye facetter gennem den tekniske udvikling. I deres undersøgelse tilpassede Oldenburg-forskerne MIT's Moral Machine-test. Testpersoner blev konfronteret med de beslutninger, der blev truffet af kunstig intelligens for at synliggøre uoverensstemmelserne mellem menneskelige beslutninger og maskiners beslutninger. Målingerne af forsøgspersonernes hjernebølger viste, at komplekse kognitive processer kan genkendes efter omkring 0,3 sekunder. Disse processer afspejler den følelsesmæssige og moralske evaluering af beslutningssituationen.

Moralske dilemmaer i fokus

Et af de centrale dilemmaer, forskerne vurderede, handler om at beslutte, om en selvkørende bil skal undgå en hund eller køre over en hund, når den bliver løs fra sin snor. Sådanne dilemmasituationer gør det klart, at der ofte ikke er nogen klart korrekt beslutning, og at tekniske algoritmer til programmering af autonome køretøjer kræver klare moralske retningslinjer. Forskellige kulturelle påvirkninger påvirker også moralske beslutninger: Mens i vestlige kulturer ofte prioriteres "kvinder og børn først", i andre kulturer kunne en anden værdi herske, for eksempel i Japan med en præference for ældre mennesker.

Undersøgelsen viser, at når der er divergenser mellem menneskers og maskiners beslutninger, er der op til to mikrovolt højere hjernearousal. Denne uoverensstemmelse varer i flere millisekunder, hvilket indikerer den følelsesmæssige konflikt, der opstår i sådanne dilemmaer. For yderligere at fremme accepten af ​​selvkørende biler, forsker forskere i metoder til at analysere, hvordan brugere håndterer de beslutninger, deres køretøjer træffer i hverdagen, og om disse beslutninger svarer til deres egen moralske overbevisning.

Etik og bias i AI

De etiske udfordringer forbundet med udviklingen af ​​kunstig intelligens (AI) rækker dog langt ud over spørgsmålene om autonom køretøjskontrol. Ifølge en artikel af Cosmo Center AI kan analysere menneskelige moralske vurderinger og komme med forudsigelser, men den er underlagt betydelige skævheder, der sætter spørgsmålstegn ved dens objektivitet. Etiske beslutninger truffet af AI er ofte baseret på historiske og kulturelle skævheder gemt i træningsdataene.

For at løse disse udfordringer anbefales det at diversificere træningsdataene og implementere retfærdige kontrolmekanismer. For eksempel kan brug af en menneske-i-løkken-tilgang sikre, at der tages hensyn til menneskelige hensyn og ansvar. Behovet for mere gennemsigtighed i AI-beslutningsprocesser understreges også for at gøre etiske vurderinger forståelige og for at bidrage til det bevidste design af algoritmer.

Sammenfattende rejser udviklingen af ​​selvkørende biler og programmeringen af ​​AI både teknologiske og etiske spørgsmål. Kalaidos FH påpeger, at samarbejde mellem mennesker og maskiner er essentielt for at overkomme udfordringen med moralske dilemmaer ved brug af AI og samtidig sætte spørgsmålstegn ved og definere ens egne værdier.