Δικηγόροι και Τεχνητή Νοημοσύνη
Τεχνητή Νοημοσύνη χωρίς Τεχνητή ευθύνη
Κάθε γενιά δικηγόρων βιώνει μια τομή που επαναπροσδιορίζει την καθημερινή πρακτική του δικαίου:
Η γραφομηχανή αντικαταστάθηκε από τον υπολογιστή.
Το φυσικό αρχείο μεταφέρθηκε στο cloud.
Η νομολογία έπαψε να περιορίζεται στα ράφια της βιβλιοθήκης.
Η τεχνητή νοημοσύνη, ωστόσο, δεν συνιστά απλώς ένα ακόμη τεχνολογικό εργαλείο. Είναι η πρώτη τεχνολογία που δεν επηρεάζει μόνο τον τρόπο εργασίας του δικηγόρου, αλλά τον τρόπο νομικής σκέψης, έρευνας, σύνθεσης επιχειρημάτων, τον τρόπο που αξιολογούμε την εργασία μας και, τελικά, πώς αντιλαμβανόμαστε την ίδια τη νομική αξία.
Η τεχνητή νοημοσύνη δεν «σκέφτεται» με νομικούς όρους, επεξεργάζεται τεράστιους όγκους δεδομένων και αναγνωρίζει στατιστικά πρότυπα. Μπορεί να συνοψίσει χιλιάδες σελίδες, να εντοπίσει επαναλαμβανόμενες γραμμές νομολογίας, να διακρίνει μοτίβα, να προτείνει δομές επιχειρημάτων και να επιταχύνει την έρευνα σε βαθμό που πριν λίγα χρόνια θεωρούσαμε επιστημονική φαντασία. Δεν μπορεί, όμως, να σταθμίσει αντικρουόμενα συμφέροντα, να αξιολογήσει αξιοπιστία, να «ψυχολογήσει», να διαπραγματευτεί ή να αναλάβει ευθύνη. Οι λειτουργίες αυτές παραμένουν – και οφείλουν να παραμείνουν για το δικό μας καλό – αναλλοίωτος πυρήνας της ανθρώπινης νομικής κρίσης.
Το πραγματικό δίλημμα: Εργαλείο ή άλλοθι;
Στο νομικό κόσμο η Τεχνητή Νοημοσύνη συζητείται είτε με υπερβολικό ενθουσιασμό είτε με καχυποψία. Και τα δύο είναι λάθος . Το πραγματικό δίλημμα που προκύπτει δεν είναι αν ο δικηγόρος θα χρησιμοποιήσει τεχνητή νοημοσύνη, αλλά πώς θα την χρησιμοποιήσει. Ο ουσιαστικός κίνδυνος έγκειται στη χρήση της χωρίς κριτικό έλεγχο, στην αναπαραγωγή αποτελεσμάτων χωρίς επαλήθευση πηγών και στην υποκατάσταση της νομικής σκέψης από αλγοριθμική παραγωγή κειμένου. Η τεχνητή νοημοσύνη μοιάζει με έναν ασκούμενο με εξαιρετική μνήμη και ταχύτητα, αλλά χωρίς εμπειρία, χωρίς την ώριμη κρίση και την πλήρη γνώση των νομικών συνεπειών. Υπό σωστή καθοδήγηση μπορεί να ενισχύσει θεαματικά την αποτελεσματικότητα, χωρίς έλεγχο, μπορεί να εκθέσει σοβαρά τον επαγγελματία.
Δεοντολογία και κανονιστικά όρια
Η συζήτηση περί δεοντολογίας δεν είναι θεωρητική πολυτέλεια, είναι επαγγελματική αναγκαιότητα. Ζητήματα όπως η προστασία προσωπικών δεδομένων, το επαγγελματικό απόρρητο, η ευθύνη για εσφαλμένη πληροφορία και η διαφάνεια απέναντι στον πελάτη δεν αντιμετωπίζονται με γενικές απαγορεύσεις, αλλά με γνώση του τρόπου λειτουργίας των συστημάτων ΑΙ και με σαφή όρια χρήσης. Ο δικηγόρος που κατανοεί τις τεχνικές και νομικές αδυναμίες της τεχνητής νοημοσύνης είναι σαφώς πιο θωρακισμένος από εκείνον που την απορρίπτει συλλήβδην ή, αντίθετα, την αποδέχεται απροβλημάτιστα.
Παραδείγματα προβληματικής χρήσης:
Επίκληση ανύπαρκτης νομολογίας. Σε διεθνές επίπεδο έχουν καταγραφεί περιπτώσεις κατάθεσης δικογράφων με παραπομπές σε αποφάσεις που δεν υφίστανται, πλήρως «κατασκευασμένες» από συστήματα τεχνητής νοημοσύνης. Το σφάλμα δεν περιορίζεται σε ελλιπή έρευνα, συνιστά παραπλάνηση του δικαστηρίου, έστω και ακούσια και παραβίαση της θεμελιώδους υποχρέωσης επιμέλειας, με πειθαρχικές και αστικές ευθύνες για τους δικηγόρους.
Στην υπόθεση Mata v. Avianca, Inc., στο Ομοσπονδιακό Δικαστήριο της Νέας Υόρκης, δικηγόροι κατέθεσαν αγωγή περιλαμβάνοντας ψευδείς παραπομπές σε αποφάσεις, που είχε δημιουργήσει το ChatGPT και δεν υπήρχαν στην πραγματικότητα. Το δικαστήριο ακύρωσε την υπόθεση και επέβαλε πρόστιμο 5.000 δολαρίων στους δικηγόρους για παραπλάνηση, καθώς οι “AI-generated” αποφάσεις ήταν εντελώς φανταστικές. Σε άλλο ομοσπονδιακό δικαστήριο στις ΗΠΑ, τρεις δικηγόροι, δύο από την διεθνή δικηγορική εταιρεία Morgan & Morgan και ένας από μια άλλη μικρότερη εταιρεία, άσκησαν αγωγή κατά της Walmart και πλήρωσαν συνολικά 5.000 δολάρια πρόστιμο επειδή συμπεριέλαβαν στο δικόγραφο ανύπαρκτες δικαστικές αποφάσεις, οι οποίες είχαν παραχθεί από σύστημα AI.
«Οι δικηγόροι, είχαν δεοντολογική υποχρέωση να διασφαλίσουν ότι οι δικαστικές αποφάσεις στις οποίες παρέπεμπαν ήταν υπαρκτές», ανέφερε ο ομοσπονδιακός δικαστής Kelly Rankin του Περιφερειακού Δικαστηρίου των ΗΠΑ στο Wyoming, στην απόφασή του με την οποία επέβαλε το πρόστιμο.
Νομικά αυτό θεωρήθηκε κατάχρηση διαδικασίας και παραβίαση του καθήκοντος επιμέλειας (Rule 11 των US Federal Rules).
Αυτόματη παραγωγή συμβάσεων χωρίς κατανόηση του εφαρμοστέου δικαίου. Η χρήση ΑΙ για τη σύνταξη συμβάσεων έχει οδηγήσει σε κείμενα τυπικά καλογραμμένα και νομικοφανή αλλά με νομικές αοριστίες ή ανίσχυρα, με ρήτρες ασύμβατες με το ισχύον δίκαιο, αντιφατικούς όρους ή έννοιες εισαγόμενες από διαφορετικές έννομες τάξεις. Η τεχνητή νοημοσύνη δεν γνωρίζει ποιο δίκαιο εφαρμόζεται (civil law ή common law), συνδυάζει πρότυπα και έννοιες από διαφορετικά νομικά συστήματα.
Η επαγγελματική ευθύνη δεν αυτοματοποιείται: Τα όρια της τεχνητής νοημοσύνης στη νομική επιστήμη
Η χρήση τεχνητής νοημοσύνης στη νομική πρακτική δεν αναιρεί ούτε μεταβιβάζει την επαγγελματική ευθύνη του δικηγόρου, αντίθετα, την καθιστά εντονότερη. Ο δικηγόρος παραμένει αποκλειστικά υπεύθυνος για την ορθότητα, την εγκυρότητα και τη νομική θεμελίωση κάθε συμβουλής, ακόμη και όταν αυτή βασίζεται σε προϊόντα τεχνητής νοημοσύνης. Κάθε άρθρο, κάθε απόφαση, κάθε νομοθετική ανάλυση πρέπει να ελέγχεται αυτοτελώς από τις αξιόπιστες αντίστοιχες βάσεις των νομικών δεδομένων.
Η μη επαληθευμένη χρήση νομολογίας και πηγών που προτείνεται από σύστημα τεχνητής νοημοσύνης χωρίς νομικό έλεγχο επικαιρότητας, ή η χρήση «hallucinated» αποφάσεων μπορεί να οδηγήσει σε σοβαρό επαγγελματικό σφάλμα με τις ανάλογες συνέπειες για τον επαγγελματία.
Κίνδυνος παραβίασης επαγγελματικού απορρήτου
Η εισαγωγή εμπιστευτικών δεδομένων και πραγματικών στοιχείων υποθέσεων σε εργαλεία ΑΙ ενδέχεται να παραβιάσει το καθήκον εχεμύθειας και το πλαίσιο προστασίας προσωπικών δεδομένων, καθότι εγκυμονεί ο κίνδυνος να διαρρεύσουν δεδομένα ή να «αποθηκευτούν» αυτά σε άγνωστους servers ή ακόμα να επεξεργαστούν από τρίτους παρόχους. Η ασφαλής χρήση προϋποθέτει την αποφυγή πραγματικών ονομάτων και στοιχείων που μπορεί να ταυτοποιήσουν υπόθεση ή πρόσωπο. Το επαγγελματικό απόρρητο δεν είναι απλώς «τεχνικό ζήτημα», είναι θεμελιώδης υποχρέωση δεοντολογίας του δικηγορικού λειτουργήματος.
Η ΑΙ λειτουργεί αποκλειστικά επικουρικά
Η τεχνητή νοημοσύνη μπορεί να χρησιμοποιείται άριστα για έρευνα, προσχέδια, δομές σκέψης, προτάσεις, πληροφορίες, στατιστικές, αλλά ποτέ ως τελική πηγή νομικής άποψης.
Κάθε παραγόμενο αποτέλεσμα πρέπει να ελέγχεται, να επαληθεύεται και να διατυπώνεται νομικά ανάλογα την υπόθεση από τον δικηγόρο. Η ΑΙ δεν γνωρίζει ποιο επιχείρημα πρέπει να αφήσεις «εκτός», πότε πρέπει να σωπάσεις, ούτε ποια «γραμμή υπεράσπισης» είναι η καλύτερη για τον πελάτη. Η στρατηγική παραμένει πάντα μια ανθρώπινη δεξιότητα.
Τελικό συμπέρασμα
Η τεχνητή νοημοσύνη δεν είναι ούτε απειλή ούτε πανάκεια. Μπορεί να αποτελέσει ένα ισχυρό εργαλείο υποστήριξης, δεν μπορεί, όμως, να υποκαταστήσει τη νομική κρίση, ωστόσο μπορεί να «περιθωριοποιήσει» τον δικηγόρο που δεν προσαρμόζεται και δεν εξελίσσεται. Και αυτό, ίσως, να είναι το πιο υγιές σοκ που δέχεται το επάγγελμά μας.
Το όριο χαράσσεται σαφές: στα χέρια ενός δικηγόρου με κρίση, γνώση και δεοντολογική συνείδηση, μπορεί να ενισχύσει την ποιότητα της νομικής εργασίας, στα χέρια ενός απρόσεκτου χρήστη, μπορεί να εκθέσει ανεπανόρθωτα το επάγγελμα. Η επιλογή, η κρίση και η στρατηγική είναι ο πυρήνας της «δικηγορικής τέχνης» και αυτά δεν πρέπει ποτέ να αυτοματοποιηθούν.
- ΤΟΜΕΙΣ ΔΙΚΑΙΟΥ
- Δίκαιο Πληροφορικής
- ΕΤΙΚΕΤΕΣ
- AI
- δικηγορία
- δικηγόρος
- τεχνητή νοημοσύνη