La décision du dilemme : les voitures autonomes dans un dilemme moral !

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Des chercheurs de l’Université d’Oldenbourg étudient les décisions morales des voitures autonomes dans des situations de dilemme.

Forschende der Uni Oldenburg untersuchen die moralischen Entscheidungen selbstfahrender Autos in Dilemma-Situationen.
Des chercheurs de l’Université d’Oldenbourg étudient les décisions morales des voitures autonomes dans des situations de dilemme.

La décision du dilemme : les voitures autonomes dans un dilemme moral !

Le 24 juin 2025, des chercheurs du département de psychologie de l'université d'Oldenburg ont présenté une étude importante sur les voitures autonomes, publiée dans la revue Rapports scientifiques a été publié. Ses recherches visent à accroître l’acceptation des véhicules autonomes, en particulier lorsque des dilemmes moraux complexes sont impliqués. Dans ce contexte, des situations de dilemme ont été examinées dans lesquelles les voitures autonomes doivent prendre des décisions qui peuvent sauver ou mettre des vies en danger.

Un exemple bien connu est le problème du chariot, formulé à l'origine par Karl Engisch en 1930. Cette expérience de pensée a acquis de nouvelles facettes grâce aux développements techniques. Dans leur étude, les scientifiques d'Oldenburg ont adapté le test Moral Machine du MIT. Les sujets testés ont été confrontés aux décisions prises par l’intelligence artificielle afin de rendre visibles les écarts entre les décisions humaines et celles des machines. Les mesures des ondes cérébrales des sujets ont montré que des processus cognitifs complexes peuvent être reconnus après environ 0,3 seconde. Ces processus reflètent l'évaluation émotionnelle et morale de la situation de prise de décision.

Focus sur les dilemmes moraux

L’un des principaux dilemmes évalués par les chercheurs consiste à décider si une voiture autonome doit éviter un chien ou écraser un chien lorsqu’il se détache de sa laisse. De telles situations de dilemme montrent clairement qu’il n’existe souvent pas de décision clairement correcte et que les algorithmes techniques de programmation des véhicules autonomes nécessitent des directives morales claires. Différentes influences culturelles affectent également les décisions morales : alors que dans les cultures occidentales, « les femmes et les enfants d’abord » sont souvent donnés en priorité, dans d’autres cultures, une valeur différente pourrait prévaloir, par exemple au Japon avec une préférence pour les personnes âgées.

L’étude montre que lorsqu’il y a des divergences entre les décisions des humains et celles des machines, l’excitation cérébrale est jusqu’à deux microvolts plus élevée. Cet écart dure plusieurs millisecondes, ce qui indique le conflit émotionnel qui surgit dans de tels dilemmes. Pour promouvoir davantage l'acceptation des voitures autonomes, les scientifiques recherchent des méthodes permettant d'analyser la manière dont les utilisateurs gèrent les décisions prises par leur véhicule dans la vie quotidienne et si ces décisions correspondent à leurs propres convictions morales.

Éthique et préjugés dans l’IA

Cependant, les enjeux éthiques liés au développement de l’intelligence artificielle (IA) vont bien au-delà des enjeux de contrôle des véhicules autonomes. D'après un article de Centre Cosmo L’IA peut analyser les jugements moraux humains et faire des prédictions, mais elle est sujette à des biais importants qui remettent en question son objectivité. Les décisions éthiques prises par l’IA reposent souvent sur des préjugés historiques et culturels cachés dans les données de formation.

Pour relever ces défis, il est recommandé de diversifier les données de formation et de mettre en œuvre des mécanismes de contrôle équitables. Par exemple, l’utilisation d’une approche impliquant l’humain pourrait garantir que les considérations et les responsabilités humaines sont prises en compte. La nécessité d’une plus grande transparence dans les processus décisionnels en matière d’IA est également soulignée afin de rendre les jugements éthiques compréhensibles et de contribuer à la conception consciente des algorithmes.

En résumé, le développement des voitures autonomes et la programmation de l’IA soulèvent des questions à la fois technologiques et éthiques. Kalaïdos FH souligne que la collaboration entre les humains et les machines est essentielle pour surmonter le défi des dilemmes moraux liés à l'utilisation de l'IA et en même temps remettre en question et définir ses propres valeurs.