La decisione sul dilemma: le auto a guida autonoma in un dilemma morale!
I ricercatori dell’Università di Oldenburg stanno studiando le decisioni morali delle auto a guida autonoma in situazioni di dilemma.

La decisione sul dilemma: le auto a guida autonoma in un dilemma morale!
Il 24 giugno 2025 i ricercatori del Dipartimento di Psicologia dell’Università di Oldenburg hanno presentato un importante studio sulle auto a guida autonoma, pubblicato sulla rivista Rapporti scientifici è stato pubblicato. La sua ricerca mira ad aumentare l’accettazione dei veicoli autonomi, in particolare quando sono coinvolti dilemmi morali complessi. In questo contesto sono state esaminate situazioni dilemmatiche in cui le auto autonome devono prendere decisioni che possono salvare o mettere in pericolo vite umane.
Un esempio ben noto è il problema del carrello, formulato originariamente da Karl Engisch nel 1930. Questo esperimento mentale ha acquisito nuove sfaccettature attraverso gli sviluppi tecnici. Nel loro studio, gli scienziati di Oldenburg hanno adattato il test della Macchina Morale del MIT. I soggetti del test sono stati confrontati con le decisioni prese dall'intelligenza artificiale per rendere visibili le discrepanze tra le decisioni umane e quelle delle macchine. Le misurazioni delle onde cerebrali dei soggetti hanno dimostrato che i processi cognitivi complessi possono essere riconosciuti dopo circa 0,3 secondi. Questi processi riflettono la valutazione emotiva e morale della situazione decisionale.
Dilemmi morali al centro dell'attenzione
Uno dei dilemmi chiave valutati dai ricercatori riguarda la decisione se un’auto a guida autonoma debba evitare un cane o investire un cane quando si libera dal guinzaglio. Tali situazioni di dilemma rendono chiaro che spesso non esiste una decisione chiaramente corretta e che gli algoritmi tecnici per la programmazione dei veicoli autonomi richiedono chiare linee guida morali. Diversi influssi culturali influenzano anche le decisioni morali: mentre nelle culture occidentali viene spesso data priorità a “donne e bambini”, in altre culture potrebbe prevalere un valore diverso, ad esempio in Giappone con una preferenza per gli anziani.
Lo studio mostra che quando ci sono divergenze tra le decisioni degli esseri umani e delle macchine, l’eccitazione cerebrale aumenta fino a due microvolt. Questa discrepanza dura diversi millisecondi, indicando il conflitto emotivo che sorge in tali dilemmi. Per promuovere ulteriormente l’accettazione delle auto a guida autonoma, gli scienziati stanno ricercando metodi per analizzare come gli utenti affrontano le decisioni che prendono i loro veicoli nella vita di tutti i giorni e se queste decisioni corrispondono alle loro convinzioni morali.
Etica e pregiudizi nell’intelligenza artificiale
Tuttavia, le sfide etiche associate allo sviluppo dell’intelligenza artificiale (AI) vanno ben oltre le questioni relative al controllo dei veicoli autonomi. Secondo un articolo di Centro Cosmo L’intelligenza artificiale può analizzare i giudizi morali umani e fare previsioni, ma è soggetta a pregiudizi significativi che ne mettono in discussione l’obiettività. Le decisioni etiche prese dall’intelligenza artificiale sono spesso basate su pregiudizi storici e culturali nascosti nei dati di addestramento.
Per affrontare queste sfide, si raccomanda di diversificare i dati sulla formazione e implementare meccanismi di controllo equi. Ad esempio, l’utilizzo di un approccio human-in-the-loop potrebbe garantire che le considerazioni e le responsabilità umane siano prese in considerazione. Viene inoltre sottolineata la necessità di maggiore trasparenza nei processi decisionali dell’IA per rendere comprensibili i giudizi etici e contribuire alla progettazione consapevole degli algoritmi.
In sintesi, lo sviluppo di auto a guida autonoma e la programmazione dell’intelligenza artificiale sollevano questioni sia tecnologiche che etiche. Kalaidos FH sottolinea che la collaborazione tra uomo e macchina è essenziale per superare la sfida dei dilemmi morali nell'utilizzo dell'intelligenza artificiale e allo stesso tempo mettere in discussione e definire i propri valori.