Οι «παραισθήσεις» της Τεχνητής Νοημοσύνης ενώπιον των δικαστηρίων

AI Hallucinations I Η σημασία της απόφασης έγκειται στο γεγονός ότι για πρώτη φορά δικαστήριο αναγνωρίζει ρητά το συγκεκριμένο τεχνολογικό φαινόμενο και το εντάσσει στον νομικό συλλογισμό του.

Share

Η ενσωμάτωση της παραγωγικής τεχνητής νοημοσύνης [generative AI] στη νομική πράξη εξελίσσεται με ταχύτατους ρυθμούς. Παράλληλα όμως, αναδύονται νέα και σύνθετα ζητήματα αξιοπιστίας, δεοντολογίας και επαγγελματικής ευθύνης. Ένα από τα πλέον χαρακτηριστικά φαινόμενα είναι οι λεγόμενες «παραισθήσεις» [AI Hallucinations] της τεχνητής νοημοσύνης,  δηλαδή η παραγωγή ανύπαρκτου ή ανακριβούς περιεχομένου με απόλυτα πειστικό τρόπο.

Πρόσφατη δικαστική απόφαση στη Γαλλία ανέδειξε το ζήτημα αυτό με τρόπο ιδιαίτερα σαφή, φέρνοντας για πρώτη φορά τη σχετική ορολογία στο ίδιο το σκεπτικό του δικαστηρίου.

Τι είναι οι «παραισθήσεις» της ΤΝ

Ως «παραισθήσεις» νοούνται περιπτώσεις κατά τις οποίες ένα σύστημα τεχνητής νοημοσύνης:

  • επινοεί ανύπαρκτες δικαστικές αποφάσεις,

  • αποδίδει λανθασμένο περιεχόμενο σε υπαρκτή νομολογία,

  • παραθέτει εσφαλμένες ημερομηνίες, αριθμούς αποφάσεων ή νομικές βάσεις.

Το φαινόμενο δεν οφείλεται σε πρόθεση παραπλάνησης, αλλά στη φύση των γλωσσικών μοντέλων, τα οποία λειτουργούν πιθανολογικά και όχι βάσει επαλήθευσης αλήθειας. Όταν δεν «γνωρίζουν» την απάντηση, τείνουν να δημιουργούν μια εύλογη και γλωσσικά συνεκτική εκδοχή της.

Η δικαστική υπόθεση που άνοιξε τη συζήτηση

Σε υπόθεση ενώπιον γαλλικού πρωτοδικείου του Périgueux ο ενάγων προσφεύγει στο δικαστήριο σε διαφορά με μια περιφερειακή CAF. Ο ίδιος διάδικος προσκόμισε γραπτές προτάσεις με εκτενή επίκληση νομολογίας. Κατά τον έλεγχο του φακέλου, το δικαστήριο διαπίστωσε ότι:

  • ορισμένες από τις επικαλούμενες αποφάσεις δεν υφίσταντο σε καμία γνωστή βάση νομολογίας,

  • άλλες υπήρχαν μεν, αλλά είχαν διαφορετικό αντικείμενο ή εσφαλμένα στοιχεία.

Παρότι ο διάδικος δικαιώθηκε επί της ουσίας, το δικαστήριο προέβη σε ρητή επισήμανση ότι οι πηγές που χρησιμοποιήθηκαν ενδέχεται να προέρχονται από «παραισθήσεις» εργαλείων τεχνητής νοημοσύνης ή μηχανών αναζήτησης και τόνισε την ανάγκη επαλήθευσης των νομικών παραπομπών.

Η σημασία της απόφασης δεν έγκειται στο διατακτικό της, αλλά στο γεγονός ότι για πρώτη φορά δικαστήριο αναγνωρίζει ρητά το συγκεκριμένο τεχνολογικό φαινόμενο και το εντάσσει στον νομικό συλλογισμό του.

Κίνδυνοι για τη νομική πρακτική

Η χρήση γενικών εργαλείων ΤΝ χωρίς έλεγχο ενέχει σοβαρούς κινδύνους:

  • υπονόμευση της αξιοπιστίας των δικογράφων,

  • έκθεση του δικηγόρου σε πειθαρχικές ή αστικές ευθύνες,

  • αλλοίωση της ποιότητας της απονομής της δικαιοσύνης.

Ιδιαίτερα επικίνδυνη είναι η σύγχυση μεταξύ:

  • εξειδικευμένων νομικών εργαλείων, που βασίζονται σε κλειστά και ελεγχόμενα σώματα δεδομένων, και

  • γενικής χρήσης μοντέλων, τα οποία δεν διαθέτουν μηχανισμό επαλήθευσης νομικών πηγών.

Η ευθύνη παραμένει ανθρώπινη

Ένα κρίσιμο συμπέρασμα που αναδεικνύεται είναι ότι η τεχνητή νοημοσύνη δεν μεταφέρει την ευθύνη. Ο δικηγόρος παραμένει απολύτως υπεύθυνος για:

  • την ακρίβεια των νομικών ισχυρισμών,

  • την ορθότητα των παραπομπών,

  • την αξιοπιστία των πηγών που επικαλείται.

Η χρήση ΤΝ μπορεί να λειτουργήσει επικουρικά, όχι όμως υποκατάστατα της νομικής κρίσης και του επαγγελματικού ελέγχου.

Προς μια «υγιεινή γνώσης» στην εποχή της ΤΝ

Καθώς τα εργαλεία τεχνητής νοημοσύνης καθίστανται αναπόσπαστο μέρος της νομικής καθημερινότητας, καθίσταται αναγκαία η υιοθέτηση μιας νέας μορφής «επιστημολογικής τεκμηρίωσης»:

  • συστηματικός έλεγχος πρωτογενών πηγών,

  • κατανόηση των τεχνολογικών ορίων των εργαλείων,

  • προσαρμογή της χρήσης τους ανάλογα με τη βαρύτητα του νομικού έργου.

Η πρόσφατη γαλλική νομολογία λειτουργεί ως προειδοποιητικό σήμα: η τεχνητή νοημοσύνη μπορεί να ενισχύσει τη νομική εργασία, αλλά μόνο όταν χρησιμοποιείται με γνώση, μέτρο και αυστηρό επαγγελματικό έλεγχο.

LawJobs

Ροή Ειδήσεων

Δημοφιλή