Διαφήμιση

Η Τεχνητή Νοημοσύνη και το πρόβλημα της διαφάνειας: από το «μαύρο κουτί» στη νομική λογοδοσία

e-tekhnete-noemosune-kai-to-problema-tes-diaphaneias-apo-to-mauro-kouti-ste-nomike-logodosia

Επιμέλεια: Βασίλειος Δ. Δημητρόπουλος, Ηλεκτρολόγος Μηχανικός & Μηχανικός Υπολογιστών, PhDc

Εισαγωγή

Η Τεχνητή Νοημοσύνη (ΤΝ) έχει καταστεί αναπόσπαστο τμήμα της κοινωνικής και οικονομικής ζωής, επηρεάζοντας τομείς όπως η υγεία, η ενέργεια, οι χρηματοπιστωτικές υπηρεσίες και η δημόσια διοίκηση. Όσο όμως αυξάνεται η πολυπλοκότητα των αλγορίθμων, τόσο δυσχεραίνεται η κατανόηση του τρόπου με τον οποίο λαμβάνονται οι αποφάσεις τους.

Ανακύπτει έτσι ένα κρίσιμο νομικό ερώτημα: πώς μπορεί να αποδοθεί ευθύνη και να διασφαλιστεί η αρχή της λογοδοσίας, όταν ούτε οι ίδιοι οι δημιουργοί του συστήματος είναι σε θέση να εξηγήσουν τη λογική της απόφασης; Το φαινόμενο αυτό έχει καθιερωθεί στη διεθνή βιβλιογραφία ως "black box problem" ή «πρόβλημα του μαύρου κουτιού».

Η έννοια της Εξηγήσιμης ΤΝ

Η λεγόμενη Explainable Artificial Intelligence (XAI) συνδέεται με το δικαίωμα ενημέρωσης για τη λογική που ακολουθείται σε αυτοματοποιημένες αποφάσεις, όπως αυτό κατοχυρώνεται στα άρθρα 13–15 και 22 του Κανονισμού (ΕΕ) 2016/679 (GDPR), καθώς και με την υποχρέωση διαφάνειας και εξηγησιμότητας που θεσπίζει ο Κανονισμός (ΕΕ) 2024/1689 για την Τεχνητή Νοημοσύνη (AI Act).

Η εξηγήσιμη ΤΝ δεν περιορίζεται στην αποκάλυψη του κώδικα ή των μαθηματικών τύπων· αφορά τη δυνατότητα αιτιολόγησης της λογικής πορείας που οδήγησε σε ένα αποτέλεσμα, ζήτημα που συνδέεται ευθέως με τις αρχές της διαφάνειας, της αναλογικότητας και της λογοδοσίας.

Για να γίνει κατανοητό, αρκεί να σκεφτούμε ένα σύστημα τεχνητής νοημοσύνης που ελέγχει την παραγωγή ηλεκτρικής ενέργειας. Το σύστημα αυτό λαμβάνει συνεχώς δεδομένα — θερμοκρασία, φορτίο, συχνότητα δικτύου, κόστος καυσίμου — και αποφασίζει αυτόνομα αν θα αυξήσει ή θα μειώσει την ισχύ παραγωγής.

Όταν το σύστημα αποφασίζει να μειώσει την ισχύ, ο μηχανικός (ή ο φορέας εκμετάλλευσης του σταθμού) οφείλει να γνωρίζει γιατί συνέβη αυτό. Ήταν μια προβλέψιμη, ορθολογική ενέργεια βάσει συνθηκών λειτουργίας ή αποτέλεσμα αλγοριθμικού σφάλματος;

Αυτό ακριβώς το ερώτημα —το «γιατί»— αποτελεί τον πυρήνα της εξηγήσιμης ΤΝ. Η απάντηση βρίσκεται σε τεχνικές όπως το SHAP, που επιτρέπουν να αποδοθεί μετρήσιμα το ποσοστό ευθύνης κάθε παράγοντα στην απόφαση του συστήματος.

Η μέθοδος SHAP υπό το πρίσμα της νομικής τεκμηρίωσης

Η μέθοδος SHAP (SHapley Additive exPlanations), που βασίζεται σε αρχές της θεωρίας παιγνίων, στηρίζεται στην ιδέα της δίκαιης κατανομής της συνεισφοράς κάθε παράγοντα στο τελικό αποτέλεσμα. Κάθε μεταβλητή που επηρεάζει μια απόφαση αντιμετωπίζεται ως «συμμετέχων» στη διαδικασία, και ο αλγόριθμος υπολογίζει με μαθηματικό τρόπο το ποσοστό με το οποίο συνέβαλε θετικά ή αρνητικά στην έκβαση.

Επανερχόμενοι στο παράδειγμα του συστήματος παραγωγής ενέργειας, η μέθοδος SHAP μπορεί να αποκαλύψει ότι:

  • η μείωση της ζήτησης συνέβαλε κατά 40% στην απόφαση του συστήματος να μειώσει την ισχύ,
  • η μείωση της θερμοκρασίας κατά 25%,
  • η αύξηση του κόστους καυσίμου κατά 10%,
  • ενώ το υπόλοιπο 20% αποδίδεται σε λοιπές μεταβλητές, όπως προγραμματισμό συντήρησης, διακυμάνσεις στη συχνότητα ή μικροπαραμορφώσεις στη λειτουργία των αισθητήρων.

Με αυτόν τον τρόπο, η εξήγηση της απόφασης δεν περιορίζεται σε μια αόριστη «μαύρη» διαδικασία, αλλά αποτυπώνεται ποσοτικά και αναπαραγώγιμα. Ο μηχανικός μπορεί να αποδείξει ότι το σύστημα λειτούργησε βάσει μετρήσιμων και αιτιολογημένων παραγόντων, ενώ ο νομικός ή η ρυθμιστική αρχή μπορεί να ελέγξει εάν η διαδικασία αυτή συνάδει με τις αρχές της διαφάνειας, της επιμέλειας και της λογοδοσίας.

Από νομική άποψη, η μέθοδος SHAP λειτουργεί ως γέφυρα μεταξύ τεχνικής και νομικής τεκμηρίωσης. Παρέχει αντικειμενικά δεδομένα που μπορούν να χρησιμοποιηθούν ως αποδεικτικό μέσο: να επιβεβαιώσουν ότι η απόφαση ήταν προβλέψιμη, ότι βασίστηκε σε νόμιμα και ορθολογικά κριτήρια και ότι τηρήθηκαν οι αρχές της νομιμότητας και της αναλογικότητας.

Έτσι, η τεχνική εξήγηση μετατρέπεται σε νομική απόδειξη συμμόρφωσης — δεν περιγράφει απλώς τι έκανε το σύστημα, αλλά αποδεικνύει ότι το έκανε σύμφωνα με τους κανόνες του δικαίου.

Νομικές υποχρεώσεις διαφάνειας

Το ευρωπαϊκό δίκαιο έχει ήδη αναγνωρίσει την ανάγκη εξηγησιμότητας και διαφάνειας:

  • Γενικός Κανονισμός Προστασίας Δεδομένων (GDPR): Τα άρθρα 13–15 κατοχυρώνουν το δικαίωμα του υποκειμένου να ενημερώνεται για τη «λογική που ακολουθείται» σε αυτοματοποιημένες αποφάσεις, ενώ το άρθρο 22 προβλέπει ότι ένα άτομο δεν μπορεί να υπόκειται σε απόφαση που βασίζεται αποκλειστικά σε αυτοματοποιημένη επεξεργασία, εφόσον αυτή παράγει σημαντικά αποτελέσματα.
  • Κανονισμός (ΕΕ) 2024/1689 για την Τεχνητή Νοημοσύνη (AI Act): Εισάγει ειδικές υποχρεώσεις για τα συστήματα υψηλού κινδύνου, δηλαδή εκείνα που επηρεάζουν κρίσιμους τομείς όπως η ενέργεια, η υγεία και οι μεταφορές. Το άρθρο 13 επιβάλλει την εξασφάλιση «διαφάνειας και επαρκούς κατανόησης» του τρόπου λειτουργίας του συστήματος, ενώ το άρθρο 14 καθιερώνει την υποχρέωση ανθρώπινης εποπτείας.

Παρά ταύτα, ο νομοθέτης δεν καθορίζει ρητώς τι συνιστά «επαρκή εξήγηση». Εδώ ακριβώς παρεμβαίνουν οι τεχνικές εξηγησιμότητας όπως η SHAP, που μπορούν να παρέχουν τεκμηριωμένες και ελέγξιμες εξηγήσεις, συνδέοντας την τεχνική πράξη με το νομικό περιεχόμενο της διαφάνειας.

Η εξήγηση ως αποδεικτικό συμμόρφωσης

Η ύπαρξη τεκμηριωμένων εξηγήσεων μπορεί να λειτουργήσει ως αποδεικτικό στοιχείο συμμόρφωσης προς τις αρχές και τα δικαστήρια. Ένα σύστημα που συνοδεύεται από αναπαραγώγιμες εξηγήσεις δύναται να αποδείξει ότι:

  • λειτούργησε με προβλεψιμότητα και τεκμηρίωση,
  • παρείχε δυνατότητα ανθρώπινης εποπτείας,
  • τήρησε τη δέουσα επιμέλεια σε όλα τα στάδια ανάπτυξης, εκπαίδευσης και χρήσης του.

Η τεχνική εξηγησιμότητα μετατρέπεται έτσι σε νομική τεκμηρίωση, ικανή να στηρίξει την πιστοποίηση, την εποπτεία ή ακόμη και την απαλλαγή από ευθύνη, όταν αποδεικνύεται ότι το σύστημα λειτούργησε εντός προβλέψιμων ορίων.

Προς ένα κοινό λεξιλόγιο μεταξύ νομικών και μηχανικών

Το μεγαλύτερο εμπόδιο για την ουσιαστική εφαρμογή των αρχών διαφάνειας και λογοδοσίας στην Τεχνητή Νοημοσύνη δεν είναι τεχνικό, αλλά εννοιολογικό: η απουσία κοινού λεξιλογίου μεταξύ νομικών και μηχανικών.

Οι μεν νομικοί χρησιμοποιούν όρους όπως «εύλογη διαφάνεια», «προβλεψιμότητα» ή «αναλογικότητα», ενώ οι μηχανικοί αναφέρονται σε «παραμέτρους βαρύτητας», «υπερπροσαρμογή» ή «επεξηγησιμότητα μοντέλου». Το αποτέλεσμα είναι μια γνωστική ασυμμετρία που δυσχεραίνει τόσο τη ρύθμιση όσο και τον έλεγχο της συμμόρφωσης.

Για να γεφυρωθεί αυτό το χάσμα, απαιτείται η δημιουργία ενός ενιαίου λεξιλογίου εξηγησιμότητας, που να επιτρέπει τη μετάφραση τεχνικών εννοιών σε νομικά νοήματα και αντιστρόφως. Ένα τέτοιο λεξιλόγιο θα πρέπει να βασίζεται σε τρεις άξονες:

  1. Κοινή εκπαίδευση και επιμόρφωση. Η εισαγωγή βασικών αρχών τεχνητής νοημοσύνης στην επιμόρφωση δικηγόρων, δικαστών και ρυθμιστικών αρχών είναι αναγκαία. Αντίστοιχα, οι μηχανικοί και επιστήμονες δεδομένων οφείλουν να ενεργούν με επιμέλεια και αναλογικότητα, σεβόμενοι τα θεμελιώδη δικαιώματα και την αρχή της λογοδοσίας.
  2. Συμμετοχική ρυθμιστική διαδικασία. Οι τεχνικοί επιστήμονες πρέπει να συμμετέχουν ενεργά στη διαμόρφωση πολιτικών συμμόρφωσης, κωδίκων δεοντολογίας και προτύπων αξιολόγησης. Ο Κανονισμός για την ΤΝ ήδη ενθαρρύνει την ανάπτυξη εναρμονισμένων προτύπων (harmonised standards), τα οποία μπορούν να αποτελέσουν κοινό σημείο αναφοράς μεταξύ δικαίου και τεχνολογίας.
  3. Καθιέρωση προτύπων εξηγήσιμης ΤΝ ανά τομέα. Η εξηγησιμότητα δεν έχει ενιαίο περιεχόμενο για όλα τα συστήματα ΤΝ. Ένα σύστημα στον τομέα της ενέργειας έχει διαφορετικές απαιτήσεις από ένα σύστημα υγείας ή χρηματοπιστωτικών υπηρεσιών. Η ανάπτυξη τομεακών οδηγιών και κριτηρίων εξηγησιμότητας θα διασφαλίσει ότι οι νομικές αρχές μεταφράζονται σε πρακτικές και επαληθεύσιμες τεχνικές απαιτήσεις.

Η δημιουργία αυτού του κοινού λεξιλογίου δεν είναι μόνο θέμα καλύτερης επικοινωνίας· είναι προϋπόθεση για την αποτελεσματική εφαρμογή του δικαίου σε ένα περιβάλλον όπου οι αποφάσεις λαμβάνονται ολοένα και περισσότερο από μηχανές.

Επίλογος

Η Τεχνητή Νοημοσύνη μετασχηματίζει τον κόσμο, αλλά χωρίς εξήγηση δεν μπορεί να υπάρξει εμπιστοσύνη. Οι τεχνικές εξηγησιμότητας, όπως η μέθοδος SHAP, αποδεικνύουν ότι η τεχνολογία μπορεί να υπηρετήσει το Δίκαιο, προσφέροντας σαφείς και ελέγξιμες εξηγήσεις για πολύπλοκες αποφάσεις.

Η Ευρώπη, με τον Κανονισμό για την ΤΝ, έχει ήδη θέσει το πλαίσιο· απομένει να του δώσουμε πραγματικό περιεχόμενο. Και αυτή είναι κοινή ευθύνη— των μηχανικών, των νομικών και των πολιτών που απαιτούν έναν ψηφιακό κόσμο διαφανή, υπεύθυνο και δίκαιο.