Η απόφαση του διλήμματος: αυτοοδηγούμενα αυτοκίνητα σε ηθικό δίλημμα!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Ερευνητές στο Πανεπιστήμιο του Όλντενμπουργκ ερευνούν τις ηθικές αποφάσεις των αυτοοδηγούμενων αυτοκινήτων σε καταστάσεις διλήμματος.

Forschende der Uni Oldenburg untersuchen die moralischen Entscheidungen selbstfahrender Autos in Dilemma-Situationen.
Ερευνητές στο Πανεπιστήμιο του Όλντενμπουργκ ερευνούν τις ηθικές αποφάσεις των αυτοοδηγούμενων αυτοκινήτων σε καταστάσεις διλήμματος.

Η απόφαση του διλήμματος: αυτοοδηγούμενα αυτοκίνητα σε ηθικό δίλημμα!

Στις 24 Ιουνίου 2025, ερευνητές από το Τμήμα Ψυχολογίας του Πανεπιστημίου του Όλντενμπουργκ παρουσίασαν μια σημαντική μελέτη για τα αυτοοδηγούμενα αυτοκίνητα, η οποία δημοσιεύτηκε στο περιοδικό Επιστημονικές Εκθέσεις δημοσιεύθηκε. Η έρευνά της στοχεύει να αυξήσει την αποδοχή των αυτόνομων οχημάτων, ιδιαίτερα όταν εμπλέκονται σύνθετα ηθικά διλήμματα. Στο πλαίσιο αυτό, εξετάστηκαν διλημματικές καταστάσεις στις οποίες τα αυτόνομα αυτοκίνητα πρέπει να λάβουν αποφάσεις που μπορούν να σώσουν ή να θέσουν σε κίνδυνο ζωές.

Ένα πολύ γνωστό παράδειγμα είναι το πρόβλημα του τρόλεϊ, το οποίο διατυπώθηκε αρχικά από τον Karl Engisch το 1930. Αυτό το σκεπτικό πείραμα έχει αποκτήσει νέες πτυχές μέσω των τεχνικών εξελίξεων. Στη μελέτη τους, οι επιστήμονες του Όλντενμπουργκ προσάρμοσαν το τεστ Ηθικής Μηχανής του MIT. Τα υποκείμενα της δοκιμής βρέθηκαν αντιμέτωπα με τις αποφάσεις που ελήφθησαν από την τεχνητή νοημοσύνη προκειμένου να γίνουν ορατές οι αποκλίσεις μεταξύ των ανθρώπινων αποφάσεων και εκείνων των μηχανών. Οι μετρήσεις των εγκεφαλικών κυμάτων των υποκειμένων έδειξαν ότι πολύπλοκες γνωστικές διαδικασίες μπορούν να αναγνωριστούν μετά από περίπου 0,3 δευτερόλεπτα. Αυτές οι διαδικασίες αντικατοπτρίζουν τη συναισθηματική και ηθική αξιολόγηση της κατάστασης λήψης αποφάσεων.

Ηθικά διλήμματα στο επίκεντρο

Ένα από τα βασικά διλήμματα που αξιολόγησαν οι ερευνητές περιλαμβάνει το να αποφασίσουν εάν ένα αυτοοδηγούμενο αυτοκίνητο πρέπει να αποφεύγει έναν σκύλο ή να τον προσπεράσει όταν αυτός ξεκολλήσει από το λουρί του. Τέτοιες καταστάσεις διλήμματος καθιστούν σαφές ότι συχνά δεν υπάρχει ξεκάθαρα σωστή απόφαση και ότι οι τεχνικοί αλγόριθμοι για τον προγραμματισμό αυτόνομων οχημάτων απαιτούν σαφείς ηθικές οδηγίες. Διαφορετικές πολιτιστικές επιρροές επηρεάζουν επίσης ηθικές αποφάσεις: Ενώ στους δυτικούς πολιτισμούς «πρώτα οι γυναίκες και τα παιδιά» έχουν συχνά προτεραιότητα, σε άλλους πολιτισμούς μια διαφορετική αξία θα μπορούσε να επικρατήσει, για παράδειγμα στην Ιαπωνία με προτίμηση στους ηλικιωμένους.

Η μελέτη δείχνει ότι όταν υπάρχουν αποκλίσεις μεταξύ των αποφάσεων ανθρώπων και μηχανών, υπάρχει έως και δύο μικροβολτ υψηλότερη εγκεφαλική διέγερση. Αυτή η απόκλιση διαρκεί για αρκετά χιλιοστά του δευτερολέπτου, υποδηλώνοντας τη συναισθηματική σύγκρουση που προκύπτει σε τέτοια διλήμματα. Για να προωθήσουν περαιτέρω την αποδοχή των αυτοοδηγούμενων αυτοκινήτων, οι επιστήμονες ερευνούν μεθόδους για να αναλύσουν τον τρόπο με τον οποίο οι χρήστες αντιμετωπίζουν τις αποφάσεις που λαμβάνουν τα οχήματά τους στην καθημερινή ζωή και εάν αυτές οι αποφάσεις ανταποκρίνονται στις δικές τους ηθικές πεποιθήσεις.

Ηθική και προκατάληψη στην τεχνητή νοημοσύνη

Ωστόσο, οι ηθικές προκλήσεις που σχετίζονται με την ανάπτυξη της τεχνητής νοημοσύνης (AI) υπερβαίνουν κατά πολύ τα ζητήματα του αυτόνομου ελέγχου οχημάτων. Σύμφωνα με άρθρο του Cosmo Center Η τεχνητή νοημοσύνη μπορεί να αναλύσει τις ανθρώπινες ηθικές κρίσεις και να κάνει προβλέψεις, αλλά υπόκειται σε σημαντικές προκαταλήψεις που θέτουν υπό αμφισβήτηση την αντικειμενικότητά της. Οι ηθικές αποφάσεις που λαμβάνονται από την τεχνητή νοημοσύνη βασίζονται συχνά σε ιστορικές και πολιτισμικές προκαταλήψεις που κρύβονται στα δεδομένα εκπαίδευσης.

Για την αντιμετώπιση αυτών των προκλήσεων, συνιστάται η διαφοροποίηση των δεδομένων εκπαίδευσης και η εφαρμογή δίκαιων μηχανισμών ελέγχου. Για παράδειγμα, η χρήση μιας προσέγγισης «άνθρωπος στον βρόχο» θα μπορούσε να διασφαλίσει ότι λαμβάνονται υπόψη οι ανθρώπινες σκέψεις και ευθύνες. Τονίζεται επίσης η ανάγκη για περισσότερη διαφάνεια στις διαδικασίες λήψης αποφάσεων της τεχνητής νοημοσύνης, προκειμένου να γίνουν κατανοητές οι ηθικές κρίσεις και να συμβάλουμε στον συνειδητό σχεδιασμό αλγορίθμων.

Συνοπτικά, η ανάπτυξη αυτοοδηγούμενων αυτοκινήτων και ο προγραμματισμός της τεχνητής νοημοσύνης εγείρει τόσο τεχνολογικά όσο και ηθικά ερωτήματα. Καλαίδος FH επισημαίνει ότι η συνεργασία μεταξύ ανθρώπων και μηχανών είναι απαραίτητη προκειμένου να ξεπεραστεί η πρόκληση των ηθικών διλημμάτων κατά τη χρήση της τεχνητής νοημοσύνης και ταυτόχρονα να αμφισβητηθεί και να καθοριστούν οι αξίες του ατόμου.