困境决定:自动驾驶汽车陷入道德困境!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

奥尔登堡大学的研究人员正在研究自动驾驶汽车在困境中的道德决策。

Forschende der Uni Oldenburg untersuchen die moralischen Entscheidungen selbstfahrender Autos in Dilemma-Situationen.
奥尔登堡大学的研究人员正在研究自动驾驶汽车在困境中的道德决策。

困境决定:自动驾驶汽车陷入道德困境!

2025年6月24日,奥尔登堡大学心理学系的研究人员提出了一项关于自动驾驶汽车的重要研究,该研究发表在期刊上 科学报告 已发布。她的研究旨在提高自动驾驶汽车的接受度,特别是在涉及复杂的道德困境时。在这种背景下,我们研究了自动驾驶汽车必须做出拯救或危及生命的决定的困境。

一个著名的例子是电车难题,它最初由 Karl Engisch 于 1930 年提出。随着技术的发展,这一思想实验获得了新的方面。在他们的研究中,奥尔登堡的科学家采用了麻省理工学院的道德机器测试。测试对象面对人工智能做出的决策,以使人类决策与机器决策之间的差异可见。对受试者脑电波的测量表明,复杂的认知过程可以在大约 0.3 秒后被识别。这些过程反映了决策情境的情感和道德评价。

道德困境成为焦点

研究人员评估的关键难题之一是决定自动驾驶汽车是否应该避开狗,或者在狗松开皮带时碾压狗。这种困境清楚地表明,通常没有明确正确的决定,并且自动驾驶车辆编程的技术算法需要明确的道德准则。不同的文化影响也会影响道德决策:虽然在西方文化中“妇女和儿童优先”通常被优先考虑,但在其他文化中可能会盛行不同的价值观,例如在日本,偏爱老年人。

研究表明,当人类和机器的决策存在差异时,大脑的唤醒度会高出两微伏。这种差异持续了几毫秒,表明在这种困境中出现了情感冲突。为了进一步提高自动驾驶汽车的接受度,科学家们正在研究方法来分析用户如何处理他们的汽车在日常生活中做出的决定,以及这些决定是否符合他们自己的道德信念。

人工智能中的道德和偏见

然而,与人工智能(AI)发展相关的伦理挑战远远超出了自动驾驶车辆控制的问题。根据一篇文章 科斯莫中心 人工智能可以分析人类道德判断并做出预测,但它容易受到重大偏见的影响,使其客观性受到质疑。人工智能做出的道德决策通常基于隐藏在训练数据中的历史和文化偏见。

为了应对这些挑战,建议使训练数据多样化并实施公平的控制机制。例如,使用人机交互方法可以确保考虑到人的考虑和责任。还强调人工智能决策过程需要更高的透明度,以便使道德判断易于理解,并有助于算法的有意识设计。

总而言之,自动驾驶汽车的发展和人工智能的编程提出了技术和伦理问题。 卡莱多斯足球俱乐部 指出,为了克服使用人工智能时的道德困境的挑战,同时质疑和定义自己的价值观,人与机器之间的合作至关重要。