Εισαγωγή
Η culpa in medicina δεν είναι πλέον αποκλειστικά ανθρώπινο φαινόμενο· η άνοδος της τεχνητής νοημοσύνης (AI) στην κλινική πράξη επιφέρει μεταβολές ρηξικέλευθες. Όταν διαγνώσεις, θεραπευτικές επιλογές και διαδικασίες στηρίζονται εν μέρει ή κατά πολύ σε αλγορίθμους, η νομική τάξη καλείται να αναθεωρήσει τις έννοιες της lex artis, της res ipsa loquitur, αλλά και της ευθύνης (liability) έναντι των νέων ενδιαφερομένων: κατασκευαστών, γιατρών, νοσοκομείων.
Νομολογική Ανάλυση – Ελλάδα
ΑΠ 122/2019: Στην απόφαση αυτή, προσδιορίζεται η culpa gravis (“βαριά αμέλεια”) που απαιτείται για ανθρωποκτονία από ιατρική αμέλεια, θεμελιώνοντας ότι η παράλειψη προσοχής (praecisionem) ιατρού απαιτείται να είναι σημαντική και προβλέψιμη, και ότι υπάρχει causa causans.Εκτός του ποινικού πεδίου, η θεωρία της συγκλίνουσας ιατρικής αμέλειας (όπου εμπλέκονται πολλοί ιατροί) αναλύεται διεξοδικά, θέτοντας ζήτημα αναλογικής κατανομής ευθύνης μεταξύ διαφόρων επαγγελματιών υγείας.
Οι δογματικές προσεγγίσεις συνδέονται με τον Κώδικα Ιατρικής Δεοντολογίας (ν. 3418/2005), όπου η τήρηση της lex artis (καλών ιατρικών πρακτικών) αποτελεί θεμέλιο στοιχείο για τη θεμελίωση ευθύνης.
Νομολογία – Αγγλοσαξονικό / Κοινοπολιτειακό Σύστημα– Αμερικανικές Υποθέσεις
Estelle v. Gamble (429 U.S. 97, 1976): Η deliberate indifference προς σοβαρή ιατρική ανάγκη αναγνωρίζεται ως παραβίαση της 8ης Τροποποίησης· η δικαστική ratio δείχνει ότι η απλή negligent malpractice δεν αρκεί για ποινική ή συνταγματική ευθύνη.
Scott v. Bradford (1979): Έκθετο παράδειγμα της υποχρέωσης informed consent. Η δικαιοσύνη αποφάσισε ότι η λανθασμένη ή ελλιπής ενημέρωση ασθενούς σχετικά με τους κινδύνους μιας ιατρικής πράξης συνιστά σημαντική αδικοπρακτική βάση.
Kawaauhau v. Geiger (523 U.S. 57, 1998): Το Ανώτατο Δικαστήριο διαφοροποιεί culpa από dolus, κρίνοντας ότι η αμέλεια (even αν σοβαρή) δεν ισοδυναμεί με δόλο, επηρεάζοντας θέματα ποινικής και αστικής διαπραγμάτευσης ευθύνης.
Davis v. Gambrell (2012) (παράδειγμα σε επίπεδο §1983): Ο δικαστής αναγνώρισε ότι deliberate indifference – και όχι απλή αμέλεια – μπορεί να στοιχειοθετήσει αξίωση κατά κρατικής μονάδας υγείας όταν ασθενής υποστεί σοβαρή ιατρική βλάβη.
Ευρωπαϊκό Δίκαιο
Δεν υφίσταται καθολική, ενοποιημένη ευρωπαϊκή νομολογία (ΕΔΔΑ ή ΔΕΕ) που να αφορά ιατρική αμέλεια σε παρόμοιο βαθμό όπως στις ΗΠΑ· ωστόσο, η ευρωπαϊκή νομική θεωρία και η ρυθμιστική πτυχή προσφέρουν σημαντικά νομικά επιχειρήματα:
Έρευνα δείχνει ότι σε περιπτώσεις ρομποτικών ή χειρουργικών ρομπότ, η ευθύνη ασφάλειας (“safety”) και ασφάλειας δικτύου (“security”) μπορεί να είναι δικαιολογημένα κατανεμημένη μεταξύ κατασκευαστών και παρόχων υπηρεσιών υγείας, βάσει ευρωπαϊκών νομικών πλαισίων.
Το συνδυαστικό νομικό πλαίσιο της ΕΕ (π.χ. Κανονισμοί Μη Ενεργού Ιατρικού Εξοπλισμού, ιατρικά προϊόντα, κανονισμοί τεχνολογίας) υποδεικνύει την αυξανόμενη ανάγκη για mandatum liability σε περιπτώσεις robot-assisted ιατρικής: οι κατασκευαστές και οι χειριστές πρέπει να λογοδοτούν υπό αυστηρά ρυθμιστικά πρότυπα.
Αυστραλιανή Νομολογία
Cattanach v Melchior (HCA 38; 215 CLR 1, 2003): Η High Court της Αυστραλίας αποφάνθηκε ότι γιατρός μπορεί να ευθύνεται για κόστη ανατροφής παιδιού εάν η ιατρική αμέλεια (π.χ. αποτυχία πρόβλεψης γενετικού ή αναπαραγωγικού κινδύνου) οδήγησε σε ανεπιθύμητη κύηση. Η απόφαση υπογραμμίζει έντονα την ευθύνη γιατρού όχι μόνον για σωματικές βλάβες αλλά και για οικονομικές / βιολογικές συνέπειες.
Chapman v Hearse (High Court, 1961): Αν και δεν πρόκειται αμιγώς για ιατρικό σφάλμα, η απόφαση αυτή εισάγει τη reasonable foreseeability και τον κανόνα duty of care σε περιπτώσεις όπου ιατρική παρέμβαση και αμέλεια διασταυρώνονται με παραβιάσεις πρωτογενούς καθήκοντος.
Τεχνητή Νοημοσύνη (AI) και Νομική Ευθύνη στην Ιατρική: Διεπιστημονική Ανάλυση
- Αλγοριθμική Ευθύνη και Product Liability
Η αυξανόμενη ενσωμάτωση αλγορίθμων ιατρικής διάγνωσης και ρομποτικής χειρουργικής απαιτεί δικαιικό αναπροσανατολισμό: η έννοια της liability πρέπει να επεκταθεί πέρα από την παραδοσιακή culpa, συμπεριλαμβάνοντας κατασκευαστές, προγραμματιστές και χειριστές ως πιθανούς υπόχρεους.
Η υιοθέτηση αρχών product liability σε λογισμικό AI και συστήματα ρομποτικής είναι δικαιολογημένη, δεδομένου ότι παραδοσιακά προϊόντα υγείας υπόκεινται σε αυστηρά πρότυπα ασφάλειας και ελέγχου.
- Αιτιολόγηση / Explainability (Explicatio)
Ένα από τα ουσιώδη ζητήματα είναι η επεξηγησιμότητα (explainability). Αν ένας αλγόριθμος δεν μπορεί να εξηγεί πώς κατέληξε σε συγκεκριμένη διάγνωση ή θεραπευτική πρόταση, η απονομή δικαιοσύνης (δικαστική αναγνώριση ευθύνης) καθίσταται επισφαλής.
Η σχετική ακαδημαϊκή έρευνα υποστηρίζει ότι ένα σύστημα AI πρέπει να διαθέτει audit trails, ικανότητα απόδοσης υπευθυνότητας και δυνατότητα “ανθρωποκεντρικής ανασκόπησης” από ειδικούς, προκειμένου να ενταχθεί νομικά σε πλαίσιο ευθύνης.
3. Ηθική & Νομική Ρύθμιση
Προτείνεται η υιοθέτηση νομικών κανόνων που θα θεσπίζουν λόγους ευθύνης εντός των οποίων η AI δεν είναι απλώς εργαλείο, αλλά νομικός “συμμέτοχος”. Αυτό απαιτεί εισαγωγή ρήτρων που προβλέπουν:
- a) Καθορισμό των υπευθύνων (ιατροί, νοσοκομεία, εταιρείες AI)
- b) Τήρηση audit trails και νομική πρόσβαση σε αυτά
- c) Ρύθμιση που απαιτεί επανεξέταση αλγοριθμικών αποφάσεων από ανεξάρτητο ανθρώπινο στοιχείο
Επιπλέον, η φιλοσοφική-νομική συζήτηση πρέπει να διερευνήσει την έννοια του “αλγοριθμικού ιατρού” ως νομικού υποκειμένου — όχι μόνο ως πάροχος τεχνολογίας αλλά ως εν δυνάμει νομικά υπόλογη οντότητα.
4.Συμπερασματικές μου αξιολογήσεις και ερωτήματα
Σε έναν κόσμο όπου η διάγνωση και η θεραπεία μεσολαβούνται από αλγορίθμους, η παραδοσιακή culpa επαρκεί; Όπως αναδεικνύουν πρόσφατες μελέτες (Jorstad, PubMed, arXiv), το standard of care αμφισβητείται· η opacity των “black box” αλγορίθμων δυσχεραίνει το causation.
Η AI καθίσταται quasi-νομικό υποκείμενο: ιατροί, νοσοκομεία, developers—όλοι υπόχρεοι υπό το πρίσμα του mandatum liability. Χωρίς audit trails, explicatio και human oversight, η iustitia τίθεται σε κίνδυνο.
Αμφιταλαντεύομαι και ερευνώ ως περίεργη και ανυπόμονη Νομικός επιστήμονας το εξής: Όταν η τεχνολογία αποφασίζει για τη ζωή ή το θάνατο, μπορούμε νομικά να πούμε ότι και η AI φταίει; Και αν ναι, πώς διασφαλίζουμε τη lex artis σε μια μετα‑αλγοριθμική εποχή;
Η lex artis στην ιατρική δεν μπορεί πλέον να περιορίζεται σε ανθρώπινες δράσεις· η ευθύνη επεκτείνεται σε αλγοριθμικά συστήματα και τους δημιουργούς τους. Η νομική τάξη χρειάζεται επείγουσα κατ’ εμέ επανεξέταση: οι παραδοσιακές έννοιες culpa, res ipsa loquitur, και duty of care πρέπει να εξελιχθούν ώστε να περιλάβουν την τεχνολογία.Τελικά σε έναν κόσμο όπου η τεχνολογία μεσολαβεί βαθύτατα στην ιατρική απόφαση, είμαστε έτοιμοι νομικά να αναγνωρίσουμε ότι και η AI μπορεί να “φταίει”; Και αν η απάντηση είναι ναι — τι μορφή ευθύνης πρέπει να θεσπίσουμε, ώστε να εξασφαλίσουμε iustitia;


