A decisão do dilema: carros autônomos em um dilema moral!
Pesquisadores da Universidade de Oldenburg estão investigando as decisões morais de carros autônomos em situações de dilema.

A decisão do dilema: carros autônomos em um dilema moral!
No dia 24 de junho de 2025, pesquisadores do Departamento de Psicologia da Universidade de Oldenburg apresentaram um importante estudo sobre carros autônomos, que foi publicado na revista Relatórios Científicos foi publicado. A sua investigação visa aumentar a aceitação de veículos autónomos, especialmente quando estão envolvidos dilemas morais complexos. Neste contexto, foram examinadas situações dilemáticas em que os carros autónomos têm de tomar decisões que podem salvar ou colocar vidas em perigo.
Um exemplo bem conhecido é o problema do carrinho, que foi originalmente formulado por Karl Engisch em 1930. Este experimento mental ganhou novas facetas através de desenvolvimentos técnicos. Em seu estudo, os cientistas de Oldenburg adaptaram o teste Moral Machine do MIT. As cobaias foram confrontadas com as decisões tomadas pela inteligência artificial para tornar visíveis as discrepâncias entre as decisões humanas e as das máquinas. As medições das ondas cerebrais dos sujeitos mostraram que processos cognitivos complexos podem ser reconhecidos após cerca de 0,3 segundos. Esses processos refletem a avaliação emocional e moral da situação de tomada de decisão.
Dilemas morais em foco
Um dos principais dilemas avaliados pelos pesquisadores envolve decidir se um carro autônomo deve evitar um cachorro ou atropelar um cachorro quando ele se soltar da coleira. Tais situações de dilema deixam claro que muitas vezes não existe uma decisão claramente correta e que algoritmos técnicos para programação de veículos autônomos exigem diretrizes morais claras. Diferentes influências culturais também afectam as decisões morais: enquanto nas culturas ocidentais “as mulheres e as crianças em primeiro lugar” são frequentemente priorizadas, noutras culturas um valor diferente pode prevalecer, por exemplo no Japão, com preferência pelas pessoas mais velhas.
O estudo mostra que quando há divergências entre as decisões de humanos e máquinas, há uma excitação cerebral até dois microvolts maior. Essa discrepância dura vários milissegundos, indicando o conflito emocional que surge em tais dilemas. Para promover ainda mais a aceitação de carros autónomos, os cientistas estão a investigar métodos para analisar como os utilizadores lidam com as decisões que os seus veículos tomam na vida quotidiana e se essas decisões correspondem às suas próprias convicções morais.
Ética e preconceito em IA
No entanto, os desafios éticos associados ao desenvolvimento da inteligência artificial (IA) vão muito além das questões do controlo de veículos autónomos. De acordo com um artigo de Centro Cosmo A IA pode analisar julgamentos morais humanos e fazer previsões, mas está sujeita a preconceitos significativos que colocam em causa a sua objectividade. As decisões éticas tomadas pela IA baseiam-se frequentemente em preconceitos históricos e culturais ocultos nos dados de treino.
Para enfrentar estes desafios, recomenda-se diversificar os dados de formação e implementar mecanismos de controlo justos. Por exemplo, a utilização de uma abordagem humana poderia garantir que as considerações e responsabilidades humanas sejam tidas em conta. A necessidade de mais transparência nos processos de tomada de decisão em IA também é enfatizada, a fim de tornar compreensíveis os julgamentos éticos e contribuir para o design consciente de algoritmos.
Em resumo, o desenvolvimento de carros autónomos e a programação de IA levantam questões tecnológicas e éticas. Kalaidos FH salienta que a colaboração entre humanos e máquinas é essencial para superar o desafio dos dilemas morais na utilização da IA e, ao mesmo tempo, questionar e definir os próprios valores.