Έρευνα για την τεχνητή νοημοσύνη: Νέοι τρόποι βελτίωσης της κατανόησης στη διαδικασία επεξήγησης!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Η ειδική ερευνητική περιοχή «Κατασκευή Επεξηγηματικότητας» στο UNI Paderborn διερευνά εκτεταμένα επεξηγηματικά μοντέλα για την τεχνητή νοημοσύνη.

Der Sonderforschungsbereich „Constructing Explainability“ an der UNI Paderborn untersucht erweiterte Erklärungsmodelle für KI.
Η ειδική ερευνητική περιοχή «Κατασκευή Επεξηγηματικότητας» στο UNI Paderborn διερευνά εκτεταμένα επεξηγηματικά μοντέλα για την τεχνητή νοημοσύνη.

Έρευνα για την τεχνητή νοημοσύνη: Νέοι τρόποι βελτίωσης της κατανόησης στη διαδικασία επεξήγησης!

Στις 10 Σεπτεμβρίου 2025, το Συνεργατικό Ερευνητικό Κέντρο/Transregio 318 «Constructing Explainability» στα πανεπιστήμια του Bielefeld και του Paderborn θα κάνει απολογισμό μετά από τέσσερα χρόνια εντατικής έρευνας. Υπό την καθοδήγηση της Καθ. Δρ. Katharina Rohlfing και του Καθ. Δρ. Philipp Cimiano, επικεντρώνεται στον στόχο της έρευνας της κατανοητότητας και της επεξήγησης της τεχνητής νοημοσύνης (AI). Η συμμετοχή των χρηστών στη διαδικασία επεξήγησης είναι επίσης ιδιαίτερα σημαντική, μια πτυχή που δίνει νέα ώθηση στην έρευνα. Η συνεργασία περιελάμβανε συνολικά 20 έργα και έξι ομάδες σύνθεσης και ολοκληρώνεται με την πρώτη φάση χρηματοδότησης στο τέλος του έτους.

Ένα βασικό αποτέλεσμα της έρευνας είναι η διαπίστωση ότι τα τρέχοντα συστήματα «εξηγήσιμης τεχνητής νοημοσύνης» συχνά βλέπουν τις εξηγήσεις ως μονόδρομο. Η διαδικασία της κατανόησης, από την άλλη πλευρά, θεωρείται όλο και περισσότερο ως αμοιβαία ανταλλαγή. Ως εκ τούτου, αναπτύχθηκε ένα νέο πλαίσιο για το «Social Explainable AI» (sXAI), το οποίο εστιάζει στην προσαρμογή των εξηγήσεων στις αντιδράσεις των χρηστών σε πραγματικό χρόνο. Αυτές οι εξελίξεις καθοδηγούνται από διεπιστημονικές ομάδες που συνδυάζουν την επιστήμη των υπολογιστών, τη γλωσσολογία και την ψυχολογία.

Ανάλυση της διαδικασίας εξήγησης

Η ομάδα του Rohlfing εξέτασε πραγματικές συνομιλίες για να καθορίσει πώς λειτουργεί η διαδικασία εξήγησης. Αποδείχθηκε ότι οι εξηγήσεις ξεκινούν συχνά με έναν μονόλογο, αλλά οι εξηγούμενοι συμμετέχουν ενεργά κάνοντας ερωτήσεις ή σηματοδοτώντας σύγχυση. Η ανάλυση εξέτασε επίσης τη χρήση της γλώσσας και των χειρονομιών για την απόδειξη της κατανόησης. Αυτά τα ευρήματα έδειξαν ότι η έννοια της «σκαλωσιάς» – σταδιακή υποστήριξη της μάθησης – βοηθά στη βελτιστοποίηση της διαδικασίας εξήγησης.

Ένα παράδειγμα τέτοιας εξέλιξης είναι το σύστημα SNAPE, το οποίο σχεδιάστηκε στο έργο A01. Αντιδρά με ευαισθησία στις αντιδράσεις του ατόμου και προσαρμόζει τις εξηγήσεις μεμονωμένα στην εκάστοτε κατάσταση. Γι' αυτό οι ερευνητές εστιάζουν όλο και περισσότερο στη συνεργασία, την κοινωνική καταλληλότητα και την ίδια τη διαδικασία επεξήγησης για να κάνουν τα συστήματα AI πιο αποτελεσματικά και πιο φιλικά προς τον χρήστη.

Νομικές και τεχνικές προκλήσεις

Οι προκλήσεις είναι ποικίλες, ιδίως στο νομικό πλαίσιο. Οι αυξανόμενοι νόμοι σχετικά με την ευθύνη των εταιρειών για τα συστήματα τεχνητής νοημοσύνης τους, όπως ο Γενικός Κανονισμός Προστασίας Δεδομένων (GDPR) στην Ευρώπη, απαιτούν διαφανή ανταλλαγή πληροφοριών σχετικά με τις διαδικασίες λήψης αποφάσεων. Η εξηγήσιμη τεχνητή νοημοσύνη (XAI) στοχεύει να καταστήσει αυτές τις διαδικασίες πιο κατανοητές για την προώθηση της εμπιστοσύνης και τη διευκόλυνση της αλληλεπίδρασης με τους χρήστες.

Τεχνικές για την επίτευξη επεξήγησης, όπως οι τεχνικές απόδοσης χαρακτηριστικών, οι αντίθετες επεξηγήσεις και οι χάρτες εξέχουσας σημασίας, έχουν ήδη καθιερωθεί στην έρευνα. Ωστόσο, η πολυπλοκότητα των μοντέλων τεχνητής νοημοσύνης παραμένει εμπόδιο. Πολλά από αυτά τα μοντέλα συχνά γίνονται αντιληπτά ως «μαύρα κουτιά», γεγονός που περιορίζει σημαντικά τη διαφάνεια της λήψης αποφάσεων. Επιπλέον, η ανάγκη για σαφείς κατευθυντήριες γραμμές για την προώθηση της υπεύθυνης χρήσης της τεχνητής νοημοσύνης γίνεται ολοένα και πιο ξεκάθαρη.

Συνολικά, η έρευνα στο Κέντρο Συνεργατικής Έρευνας δείχνει ότι η επεξήγηση της τεχνητής νοημοσύνης δεν έχει μόνο τεχνικές διαστάσεις, αλλά και νομικές και κοινωνικές διαστάσεις. Η άποψη της επεξηγηματικότητας πρέπει να εξελιχθεί για να ενθαρρύνει την ενεργή αλληλεπίδραση των χρηστών και να επικεντρωθεί στις διαφορετικές ανάγκες των τελικών χρηστών.