Decizia dilemei: mașinile autonome într-o dilemă morală!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Cercetătorii de la Universitatea din Oldenburg investighează deciziile morale ale mașinilor care se conduc singure în situații de dilemă.

Forschende der Uni Oldenburg untersuchen die moralischen Entscheidungen selbstfahrender Autos in Dilemma-Situationen.
Cercetătorii de la Universitatea din Oldenburg investighează deciziile morale ale mașinilor care se conduc singure în situații de dilemă.

Decizia dilemei: mașinile autonome într-o dilemă morală!

Pe 24 iunie 2025, cercetătorii de la Departamentul de Psihologie de la Universitatea din Oldenburg au prezentat un studiu important despre mașinile care se conduce singur, care a fost publicat în jurnalul Rapoarte științifice a fost publicat. Cercetarea ei își propune să crească acceptarea vehiculelor autonome, în special atunci când sunt implicate dileme morale complexe. În acest context, au fost examinate situații de dilemă în care mașinile autonome trebuie să ia decizii care pot salva sau pune vieți în pericol.

Un exemplu binecunoscut este problema căruciorului, care a fost formulată inițial de Karl Engisch în 1930. Acest experiment de gândire a căpătat noi fațete prin evoluțiile tehnice. În studiul lor, oamenii de știință din Oldenburg au adaptat testul Moral Machine al MIT. Subiecții testului s-au confruntat cu deciziile luate de inteligența artificială pentru a face vizibile discrepanțele dintre deciziile umane și cele ale mașinilor. Măsurătorile undelor cerebrale ale subiecților au arătat că procesele cognitive complexe pot fi recunoscute după aproximativ 0,3 secunde. Aceste procese reflectă evaluarea emoțională și morală a situației de luare a deciziilor.

Dileme morale în atenție

Una dintre dilemele cheie pe care cercetătorii le-au evaluat implică să decidă dacă o mașină cu conducere autonomă ar trebui să evite un câine sau să treacă peste un câine atunci când acesta se slăbește din lesă. Astfel de situații de dilemă arată clar că adesea nu există o decizie clar corectă și că algoritmii tehnici pentru programarea vehiculelor autonome necesită linii directoare morale clare. Diferite influențe culturale afectează și deciziile morale: în timp ce în culturile occidentale „femeile și copiii în primul rând” sunt adesea prioritizate, în alte culturi ar putea predomina o valoare diferită, de exemplu în Japonia, cu o preferință pentru persoanele în vârstă.

Studiul arată că atunci când există divergențe între deciziile oamenilor și ale mașinilor, există o excitare a creierului cu până la doi microvolți mai mare. Această discrepanță durează câteva milisecunde, indicând conflictul emoțional care apare în astfel de dileme. Pentru a promova și mai mult acceptarea mașinilor cu conducere autonomă, oamenii de știință cercetează metode pentru a analiza modul în care utilizatorii abordează deciziile pe care le iau vehiculele lor în viața de zi cu zi și dacă aceste decizii corespund propriilor convingeri morale.

Etică și părtinire în IA

Cu toate acestea, provocările etice asociate cu dezvoltarea inteligenței artificiale (AI) depășesc cu mult problemele controlului vehiculelor autonome. Potrivit unui articol de Cosmo Center Inteligența artificială poate analiza judecățile morale umane și poate face predicții, dar este supusă unor părtiniri semnificative care îi pun în discuție obiectivitatea. Deciziile etice luate de AI se bazează adesea pe părtiniri istorice și culturale ascunse în datele de antrenament.

Pentru a aborda aceste provocări, se recomandă diversificarea datelor de instruire și implementarea unor mecanisme de control corecte. De exemplu, utilizarea unei abordări „human-in-the-loop” ar putea asigura că considerațiile și responsabilitățile umane sunt luate în considerare. Necesitatea unei mai mari transparențe în procesele de luare a deciziilor AI este, de asemenea, subliniată pentru a face judecățile etice ușor de înțeles și pentru a contribui la proiectarea conștientă a algoritmilor.

Pe scurt, dezvoltarea mașinilor cu conducere autonomă și programarea AI ridică întrebări atât tehnologice, cât și etice. Kalaidos FH subliniază că colaborarea dintre oameni și mașini este esențială pentru a depăși provocarea dilemelor morale atunci când se folosește AI și, în același timp, a pune în discuție și a defini propriile valori.