De dilemmabeslissing: zelfrijdende auto’s in een moreel dilemma!
Onderzoekers van de Universiteit van Oldenburg onderzoeken de morele beslissingen van zelfrijdende auto's in dilemmasituaties.

De dilemmabeslissing: zelfrijdende auto’s in een moreel dilemma!
Op 24 juni 2025 presenteerden onderzoekers van de afdeling Psychologie van de Universiteit van Oldenburg een belangrijk onderzoek naar zelfrijdende auto’s, dat werd gepubliceerd in het tijdschrift Wetenschappelijke rapporten werd gepubliceerd. Haar onderzoek heeft tot doel de acceptatie van autonome voertuigen te vergroten, vooral als het om complexe morele dilemma’s gaat. In dit kader zijn dilemmasituaties onderzocht waarin autonome auto’s beslissingen moeten nemen die levens kunnen redden of in gevaar brengen.
Een bekend voorbeeld is het trolleyprobleem, oorspronkelijk geformuleerd door Karl Engisch in 1930. Dit gedachte-experiment heeft door technische ontwikkelingen nieuwe facetten gekregen. In hun onderzoek pasten de wetenschappers uit Oldenburg de Moral Machine-test van MIT aan. Proefpersonen werden geconfronteerd met de beslissingen van kunstmatige intelligentie om de discrepanties tussen menselijke beslissingen en die van machines zichtbaar te maken. Uit de metingen van de hersengolven van de proefpersonen bleek dat complexe cognitieve processen na ongeveer 0,3 seconden kunnen worden herkend. Deze processen weerspiegelen de emotionele en morele evaluatie van de besluitvormingssituatie.
Morele dilemma's in beeld
Een van de belangrijkste dilemma's die de onderzoekers hebben beoordeeld, is de vraag of een zelfrijdende auto een hond moet ontwijken of over een hond heen moet rijden als deze losraakt van de riem. Dergelijke dilemmasituaties maken duidelijk dat er vaak geen duidelijk juiste beslissing bestaat en dat technische algoritmen voor het programmeren van autonome voertuigen duidelijke morele richtlijnen vereisen. Verschillende culturele invloeden hebben ook invloed op morele beslissingen: terwijl in westerse culturen vaak prioriteit wordt gegeven aan ‘vrouwen en kinderen’, kan in andere culturen een andere waarde de boventoon voeren, bijvoorbeeld in Japan met een voorkeur voor ouderen.
Het onderzoek toont aan dat wanneer er verschillen zijn tussen de beslissingen van mensen en machines, er tot twee microvolt hogere hersenactiviteit ontstaat. Deze discrepantie duurt enkele milliseconden, wat wijst op het emotionele conflict dat bij dergelijke dilemma’s ontstaat. Om de acceptatie van zelfrijdende auto’s verder te bevorderen, onderzoeken wetenschappers methoden om te analyseren hoe gebruikers omgaan met de beslissingen die hun voertuigen in het dagelijks leven nemen en of deze beslissingen overeenkomen met hun eigen morele overtuigingen.
Ethiek en vooroordelen bij AI
De ethische uitdagingen die gepaard gaan met de ontwikkeling van kunstmatige intelligentie (AI) gaan echter veel verder dan de kwesties van autonome voertuigcontrole. Volgens een artikel van Cosmo Centrum AI kan menselijke morele oordelen analyseren en voorspellingen doen, maar is onderhevig aan aanzienlijke vooroordelen die de objectiviteit ervan in twijfel trekken. Ethische beslissingen die door AI worden genomen, zijn vaak gebaseerd op historische en culturele vooroordelen die verborgen zijn in de trainingsgegevens.
Om deze uitdagingen aan te pakken, wordt aanbevolen om de trainingsgegevens te diversifiëren en eerlijke controlemechanismen te implementeren. Het gebruik van een ‘human-in-the-loop’-benadering zou er bijvoorbeeld voor kunnen zorgen dat rekening wordt gehouden met menselijke overwegingen en verantwoordelijkheden. Ook wordt de noodzaak van meer transparantie in AI-besluitvormingsprocessen benadrukt om ethische oordelen begrijpelijk te maken en bij te dragen aan het bewust ontwerpen van algoritmen.
Samenvattend roept de ontwikkeling van zelfrijdende auto’s en de programmering van AI zowel technologische als ethische vragen op. Kalaidos FH wijst erop dat samenwerking tussen mens en machine essentieel is om de uitdaging van morele dilemma’s bij het gebruik van AI te overwinnen en tegelijkertijd de eigen waarden in twijfel te trekken en te definiëren.