Решението на дилемата: самоуправляващите се автомобили в морална дилема!
Изследователи от университета в Олденбург изследват моралните решения на самоуправляващите се автомобили в ситуации на дилема.

Решението на дилемата: самоуправляващите се автомобили в морална дилема!
На 24 юни 2025 г. изследователи от катедрата по психология към университета в Олденбург представиха важно проучване за самоуправляващите се автомобили, което беше публикувано в списанието Научни доклади беше публикуван. Нейното изследване има за цел да увеличи приемането на автономни превозни средства, особено когато са включени сложни морални дилеми. В този контекст бяха разгледани ситуации на дилема, в които автономните автомобили трябва да вземат решения, които могат да спасят или застрашат животи.
Добре известен пример е проблемът с тролея, който първоначално е формулиран от Карл Енгиш през 1930 г. Този мисловен експеримент придоби нови аспекти чрез техническо развитие. В своето изследване учените от Олденбург адаптираха теста на Моралната машина на MIT. Тестовите субекти бяха изправени пред решенията, взети от изкуствения интелект, за да направят видими несъответствията между човешките решения и тези на машините. Измерванията на мозъчните вълни на субектите показват, че сложните когнитивни процеси могат да бъдат разпознати след около 0,3 секунди. Тези процеси отразяват емоционалната и морална оценка на ситуацията на вземане на решение.
Моралните дилеми на фокус
Една от ключовите дилеми, които изследователите оцениха, включва решението дали самоуправляващата се кола трябва да избягва куче или да прегази куче, когато то се освободи от каишката си. Подобни ситуации на дилема ясно показват, че често няма ясно правилно решение и че техническите алгоритми за програмиране на автономни превозни средства изискват ясни морални насоки. Различните културни влияния също оказват влияние върху моралните решения: докато в западните култури „жените и децата на първо място“ често са приоритетни, в други култури може да надделее различна ценност, например в Япония с предпочитание към по-възрастните хора.
Проучването показва, че когато има различия между решенията на хората и машините, има до два микроволта по-висока мозъчна възбуда. Това несъответствие продължава няколко милисекунди, което показва емоционалния конфликт, който възниква при подобни дилеми. За да насърчат допълнително приемането на самоуправляващите се автомобили, учените проучват методи за анализ на това как потребителите се справят с решенията, които техните превозни средства взимат в ежедневието си и дали тези решения съответстват на собствените им морални убеждения.
Етика и пристрастия в AI
Но етичните предизвикателства, свързани с развитието на изкуствения интелект (ИИ), далеч надхвърлят проблемите на автономното управление на превозното средство. Според статия на Космо център AI може да анализира човешките морални преценки и да прави прогнози, но е обект на значителни пристрастия, които поставят под въпрос неговата обективност. Етичните решения, взети от AI, често се основават на исторически и културни пристрастия, скрити в данните за обучение.
За справяне с тези предизвикателства се препоръчва разнообразяване на данните за обучение и прилагане на справедливи механизми за контрол. Например, използването на подход „човек в цикъла“ може да гарантира, че човешките съображения и отговорности са взети под внимание. Необходимостта от повече прозрачност в процесите на вземане на решения в областта на ИИ също се подчертава, за да се направят етичните преценки разбираеми и да се допринесе за съзнателното проектиране на алгоритми.
В обобщение, разработването на самоуправляващи се автомобили и програмирането на AI повдигат както технологични, така и етични въпроси. Калайдос FH посочва, че сътрудничеството между хората и машините е от съществено значение, за да се преодолеят предизвикателствата на моралните дилеми при използването на ИИ и в същото време да се поставят под съмнение и да се определят собствените ценности.
