Dilemmaavgjørelsen: selvkjørende biler i et moralsk dilemma!
Forskere ved Universitetet i Oldenburg undersøker de moralske avgjørelsene til selvkjørende biler i dilemmasituasjoner.

Dilemmaavgjørelsen: selvkjørende biler i et moralsk dilemma!
24. juni 2025 presenterte forskere fra Institutt for psykologi ved Universitetet i Oldenburg en viktig studie om selvkjørende biler, som ble publisert i tidsskriftet Vitenskapelige rapporter ble publisert. Hennes forskning tar sikte på å øke aksepten for autonome kjøretøy, spesielt når komplekse moralske dilemmaer er involvert. I denne sammenhengen ble det undersøkt dilemmasituasjoner der autonome biler må ta avgjørelser som kan redde eller sette liv i fare.
Et kjent eksempel er tralleproblematikken, som opprinnelig ble formulert av Karl Engisch i 1930. Dette tankeeksperimentet har fått nye fasetter gjennom den tekniske utviklingen. I sin studie tilpasset Oldenburg-forskerne MITs Moral Machine-test. Testpersoner ble konfrontert med avgjørelsene tatt av kunstig intelligens for å synliggjøre avvikene mellom menneskelige og maskiners beslutninger. Målingene av forsøkspersonenes hjernebølger viste at komplekse kognitive prosesser kan gjenkjennes etter rundt 0,3 sekunder. Disse prosessene gjenspeiler den emosjonelle og moralske evalueringen av beslutningssituasjonen.
Moralske dilemmaer i fokus
Et av de viktigste dilemmaene forskerne vurderte er å bestemme om en selvkjørende bil skal unngå en hund eller kjøre over en hund når den løsner fra båndet. Slike dilemmasituasjoner gjør det klart at det ofte ikke er noen klart riktig avgjørelse og at tekniske algoritmer for programmering av autonome kjøretøy krever klare moralske retningslinjer. Ulike kulturelle påvirkninger påvirker også moralske avgjørelser: Mens i vestlige kulturer ofte prioriteres «kvinner og barn først», vil i andre kulturer en annen verdi kunne råde, for eksempel i Japan med en preferanse for eldre mennesker.
Studien viser at når det er divergenser mellom beslutninger til mennesker og maskiner, er det opptil to mikrovolt høyere hjernearousal. Denne uoverensstemmelsen varer i flere millisekunder, noe som indikerer den følelsesmessige konflikten som oppstår i slike dilemmaer. For ytterligere å fremme aksepten av selvkjørende biler, forsker forskere på metoder for å analysere hvordan brukere håndterer avgjørelsene deres kjøretøy tar i hverdagen og om disse avgjørelsene samsvarer med deres egen moralske overbevisning.
Etikk og skjevhet i AI
De etiske utfordringene knyttet til utviklingen av kunstig intelligens (AI) går imidlertid langt utover spørsmålene om autonom kjøretøykontroll. I følge en artikkel av Cosmo Center AI kan analysere menneskelige moralske vurderinger og komme med spådommer, men den er gjenstand for betydelige skjevheter som setter spørsmålstegn ved objektiviteten. Etiske avgjørelser tatt av AI er ofte basert på historiske og kulturelle skjevheter skjult i treningsdataene.
For å møte disse utfordringene, anbefales det å diversifisere opplæringsdataene og implementere rettferdige kontrollmekanismer. For eksempel kan bruk av en menneske-i-løkken-tilnærming sikre at menneskelige hensyn og ansvar blir tatt i betraktning. Behovet for mer åpenhet i AI-beslutningsprosesser understrekes også for å gjøre etiske vurderinger forståelige og for å bidra til bevisst utforming av algoritmer.
Oppsummert reiser utviklingen av selvkjørende biler og programmeringen av AI både teknologiske og etiske spørsmål. Kalaidos FH påpeker at samarbeid mellom mennesker og maskiner er essensielt for å overkomme utfordringen med moralske dilemmaer ved bruk av AI og samtidig stille spørsmål ved og definere egne verdier.