Dylemat decyzji: samochody autonomiczne w obliczu dylematu moralnego!
Naukowcy z Uniwersytetu w Oldenburgu badają decyzje moralne podejmowane przez samochody autonomiczne w sytuacjach dylematowych.

Dylemat decyzji: samochody autonomiczne w obliczu dylematu moralnego!
24 czerwca 2025 roku naukowcy z Wydziału Psychologii Uniwersytetu w Oldenburgu zaprezentowali ważne badanie dotyczące samochodów autonomicznych, które zostało opublikowane w czasopiśmie Raporty naukowe został opublikowany. Jej badania mają na celu zwiększenie akceptacji pojazdów autonomicznych, szczególnie gdy w grę wchodzą złożone dylematy moralne. W tym kontekście zbadano sytuacje dylematowe, w których samochody autonomiczne muszą podejmować decyzje mogące uratować lub zagrozić życiu.
Dobrze znanym przykładem jest problem wózka, który został pierwotnie sformułowany przez Karla Engischa w 1930 r. Ten eksperyment myślowy zyskał nowe aspekty dzięki rozwojowi technicznemu. W swoich badaniach naukowcy z Oldenburga zaadaptowali test Maszyny Moralnej MIT. Osoby badane zostały skonfrontowane z decyzjami podejmowanymi przez sztuczną inteligencję, aby uwidocznić rozbieżności pomiędzy decyzjami ludzi i maszyn. Pomiary fal mózgowych badanych wykazały, że złożone procesy poznawcze można rozpoznać już po około 0,3 sekundy. Procesy te odzwierciedlają emocjonalną i moralną ocenę sytuacji decyzyjnej.
Dylematy moralne w centrum uwagi
Jeden z kluczowych dylematów ocenionych przez badaczy dotyczy podjęcia decyzji, czy samochód autonomiczny powinien unikać psa, czy też przejechać psa, gdy ten uwolni się ze smyczy. Takie dylematy pokazują, że często nie ma jednoznacznie właściwej decyzji i że algorytmy techniczne programowania pojazdów autonomicznych wymagają jasnych wskazówek moralnych. Różne wpływy kulturowe wpływają również na decyzje moralne: podczas gdy w kulturach zachodnich priorytetem są często kobiety i dzieci, w innych kulturach może dominować inna wartość, na przykład w Japonii preferującej osoby starsze.
Badanie pokazuje, że gdy istnieją rozbieżności między decyzjami ludzi i maszyn, pobudzenie mózgu wzrasta nawet o dwa mikrowolty. Ta rozbieżność utrzymuje się przez kilka milisekund, wskazując na konflikt emocjonalny, który pojawia się w przypadku takich dylematów. Aby jeszcze bardziej promować akceptację samochodów autonomicznych, naukowcy badają metody analizowania, jak użytkownicy radzą sobie z decyzjami podejmowanymi przez ich pojazdy w życiu codziennym i czy decyzje te odpowiadają ich własnym przekonaniom moralnym.
Etyka i uprzedzenia w sztucznej inteligencji
Jednak wyzwania etyczne związane z rozwojem sztucznej inteligencji (AI) wykraczają daleko poza problematykę sterowania pojazdami autonomicznymi. Według artykułu autorstwa Centrum Kosmo Sztuczna inteligencja może analizować ludzkie oceny moralne i przewidywać, ale podlega znaczącym błędom, które podają w wątpliwość jej obiektywność. Decyzje etyczne podejmowane przez sztuczną inteligencję często opierają się na uprzedzeniach historycznych i kulturowych ukrytych w danych szkoleniowych.
Aby sprostać tym wyzwaniom, zaleca się dywersyfikację danych szkoleniowych i wdrożenie sprawiedliwych mechanizmów kontroli. Na przykład zastosowanie podejścia opartego na zaangażowaniu człowieka mogłoby zapewnić uwzględnienie kwestii i obowiązków ludzkich. Podkreśla się również potrzebę większej przejrzystości procesów decyzyjnych AI, aby uczynić oceny etyczne zrozumiałymi i przyczynić się do świadomego projektowania algorytmów.
Podsumowując, rozwój samochodów autonomicznych i programowanie sztucznej inteligencji rodzi pytania zarówno technologiczne, jak i etyczne. Kalaidos FH Zwraca uwagę, że współpraca człowieka i maszyn jest niezbędna, aby przezwyciężyć dylematy moralne podczas korzystania ze sztucznej inteligencji, a jednocześnie zakwestionować i zdefiniować własne wartości.