La decisión del dilema: ¡los coches autónomos en un dilema moral!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Investigadores de la Universidad de Oldenburg investigan las decisiones morales de los vehículos autónomos en situaciones dilemáticas.

Forschende der Uni Oldenburg untersuchen die moralischen Entscheidungen selbstfahrender Autos in Dilemma-Situationen.
Investigadores de la Universidad de Oldenburg investigan las decisiones morales de los vehículos autónomos en situaciones dilemáticas.

La decisión del dilema: ¡los coches autónomos en un dilema moral!

El 24 de junio de 2025, investigadores del Departamento de Psicología de la Universidad de Oldenburg presentaron un importante estudio sobre vehículos autónomos, publicado en la revista Informes Científicos fue publicado. Su investigación tiene como objetivo aumentar la aceptación de los vehículos autónomos, particularmente cuando se trata de dilemas morales complejos. En este contexto, se examinaron situaciones dilemas en las que los coches autónomos tienen que tomar decisiones que pueden salvar o poner en peligro vidas.

Un ejemplo bien conocido es el problema del tranvía, que fue formulado originalmente por Karl Engisch en 1930. Este experimento mental ha adquirido nuevas facetas gracias a los avances técnicos. En su estudio, los científicos de Oldenburg adaptaron el test Moral Machine del MIT. Los sujetos de prueba fueron confrontados con las decisiones tomadas por la inteligencia artificial para hacer visibles las discrepancias entre las decisiones humanas y las de las máquinas. Las mediciones de las ondas cerebrales de los sujetos mostraron que se pueden reconocer procesos cognitivos complejos en aproximadamente 0,3 segundos. Estos procesos reflejan la evaluación emocional y moral de la situación de toma de decisiones.

Dilemas morales en el punto de mira

Uno de los dilemas clave que evaluaron los investigadores implica decidir si un automóvil autónomo debe evitar a un perro o atropellarlo cuando se suelta de su correa. Estas situaciones de dilema dejan claro que a menudo no existe una decisión claramente correcta y que los algoritmos técnicos para programar vehículos autónomos requieren directrices morales claras. Las diferentes influencias culturales también afectan las decisiones morales: mientras que en las culturas occidentales a menudo se da prioridad a “las mujeres y los niños primero”, en otras culturas podría prevalecer un valor diferente, por ejemplo en Japón, con preferencia por las personas mayores.

El estudio muestra que cuando hay divergencias entre las decisiones de humanos y máquinas, la excitación cerebral aumenta hasta dos microvoltios. Esta discrepancia dura varios milisegundos, lo que indica el conflicto emocional que surge en tales dilemas. Para promover aún más la aceptación de los vehículos autónomos, los científicos están investigando métodos para analizar cómo los usuarios afrontan las decisiones que toman sus vehículos en la vida cotidiana y si estas decisiones corresponden a sus propias convicciones morales.

Ética y sesgo en la IA

Sin embargo, los desafíos éticos asociados con el desarrollo de la inteligencia artificial (IA) van mucho más allá de las cuestiones del control de vehículos autónomos. Según un artículo de Centro Cosmos La IA puede analizar los juicios morales humanos y hacer predicciones, pero está sujeta a importantes sesgos que ponen en duda su objetividad. Las decisiones éticas tomadas por la IA a menudo se basan en sesgos históricos y culturales ocultos en los datos de entrenamiento.

Para abordar estos desafíos, se recomienda diversificar los datos de capacitación e implementar mecanismos de control justos. Por ejemplo, el uso de un enfoque humano podría garantizar que se tengan en cuenta las consideraciones y responsabilidades humanas. También se enfatiza la necesidad de una mayor transparencia en los procesos de toma de decisiones de la IA para hacer comprensibles los juicios éticos y contribuir al diseño consciente de algoritmos.

En resumen, el desarrollo de vehículos autónomos y la programación de la IA plantea cuestiones tanto tecnológicas como éticas. Kalaidos FH señala que la colaboración entre humanos y máquinas es esencial para superar el desafío de los dilemas morales al utilizar la IA y al mismo tiempo cuestionar y definir los propios valores.