Allgemein

Die Dilemma-Entscheidung: Selbstfahrende Autos im moralischen Zwiespalt!

Am 24. Juni 2025 haben Forschende des Departments für Psychologie an der Universität Oldenburg eine bedeutende Studie zu selbstfahrenden Autos vorgestellt, die in der Fachzeitschrift Scientific Reports veröffentlicht wurde. Ihre Forschung zielt darauf ab, die Akzeptanz autonomer Fahrzeuge zu erhöhen, insbesondere wenn es um komplexe moralische Dilemmata geht. In diesem Zusammenhang wurden Dilemma-Situationen untersucht, in denen autonome Autos Entscheidungen treffen müssen, die Leben retten oder gefährden können.

Ein bekanntes Beispiel ist das Trolley-Problem, das ursprünglich von Karl Engisch im Jahr 1930 formuliert wurde. Dieses Gedankenexperiment hat durch technische Entwicklungen neue Facetten erhalten. In ihrer Studie haben die Oldenburger Wissenschaftler den Moral Machine-Test des MIT adaptiert. Dabei wurden Testpersonen mit den Entscheidungen der Künstlichen Intelligenz konfrontiert, um die Diskrepanzen zwischen menschlichen Entscheidungen und denen der Maschinen sichtbar zu machen. Die Messungen der Gehirnströme der Probanden zeigten, dass komplexe kognitive Prozesse bereits nach etwa 0,3 Sekunden erkennbar sind. Diese Prozesse reflektieren die emotionale und moralische Bewertung der Entscheidungssituation.

Moralische Dilemmata im Fokus

Eines der zentralen Dilemmata, das die Forschenden beurteilten, beinhaltet die Entscheidung, ob ein selbstfahrendes Auto einem Hund ausweichen oder ihn überfahren sollte, wenn er sich von der Leine losgerissen hat. Solche Dilemma-Situationen machen deutlich, dass es oft keine eindeutig richtige Entscheidung gibt und dass technische Algorithmen zur Programmierung autonomer Fahrzeuge klare moralische Richtlinien benötigen. Unterschiedliche kulturelle Prägungen wirken sich zudem auf die moralischen Entscheidungen aus: Während in westlichen Kulturen oft „Frauen und Kinder zuerst“ priorisiert wird, könnte in anderen Kulturen eine andere Wertigkeit herrschen, wie beispielsweise in Japan mit einer Bevorzugung älterer Menschen.

Die Studie zeigt, dass es bei Divergenzen zwischen den Entscheidungen von Menschen und Maschinen eine bis zu zwei Mikrovolt höhere Hirnerregung gibt. Diese Diskrepanz hält mehrere Millisekunden an, was auf den emotionalen Konflikt hinweist, der in solchen Dilemmata entsteht. Um die Akzeptanz selbstfahrender Autos weiter zu fördern, forschen die Wissenschaftler an Methoden, um im Alltag zu analysieren, wie Nutzer mit den Entscheidungen, die ihre Fahrzeuge treffen, umgehen und ob diese Entscheidungen ihren eigenen moralischen Überzeugungen entsprechen.

Ethik und Bias in der KI

Die ethischen Herausforderungen, die mit der Entwicklung von Künstlicher Intelligenz (KI) verbunden sind, gehen jedoch weit über die Fragen der autonomen Fahrzeugsteuerung hinaus. Laut einem Artikel von Cosmo Zentrum kann KI menschliche moralische Urteile analysieren und Vorhersagen treffen, jedoch unterliegt sie erheblichen Verzerrungen, die ihre Objektivität in Frage stellen. Ethische Entscheidungen, die von KI gefällt werden, basieren häufig auf historischen und kulturellen Bias, die in den Trainingsdaten verborgen sind.

Um diese Herausforderungen zu addressieren, wird empfohlen, die Trainingsdaten zu diversifizieren und faire Kontrollmechanismen zu implementieren. Beispielsweise könnte die Verwendung eines „Human-in-the-loop“-Ansatzes sicherstellen, dass menschliche Überlegungen und Verantwortungen berücksichtigt werden. Die Notwendigkeit für mehr Transparenz in den Entscheidungsprozessen von KI wird ebenfalls betont, um ethische Urteile nachvollziehbar zu machen und zur bewussten Gestaltung von Algorithmen beizutragen.

Zusammenfassend lässt sich sagen, dass die Entwicklung selbstfahrender Autos und die Programmierung von KI sowohl technologische als auch ethische Fragen aufwirft. Kalaidos FH weist darauf hin, dass die Zusammenarbeit zwischen Mensch und Maschine elementar ist, um die Herausforderung moralischer Dilemmata beim Einsatz von KI zu bewältigen und gleichzeitig die eigene Wertevorstellung zu hinterfragen und zu definieren.

Statistische Auswertung

Beste Referenz
uol.de
Weitere Infos
kalaidos-fh.ch
Mehr dazu
cosmo-zentrum.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert