Της Φανής Υβόννης Κυρκιλή,
Ζούμε στην εποχή της 4ης Βιομηχανικής Επανάστασης. Η τεχνητή νοημοσύνη δεν αποτελεί πλέον σενάριο επιστημονικής φαντασίας, αλλά μία σύγχρονη και ταχέως αναπτυσσόμενη τεχνολογία, που διεισδύει όλο και πιο βαθιά στην καθημερινότητά μας με τη χρήση της να επεκτείνεται σε πολυάριθμους τομείς, όπως η υγεία, η εκπαίδευση, η αυτοκίνηση, η οικονομία. Ωστόσο, πέρα από τις απεριόριστες δυνατότητες που προσφέρει, εγείρει πολύπλευρα διλήμματα και σύνθετα νομικά ερωτήματα. Ένα από τα πιο κρίσιμα: ποιος ευθύνεται όταν ένα σύστημα τεχνητής νοημοσύνης προκαλέσει ζημιά;
Η δυσχέρεια επίλυσης αυτού του προβληματισμού έχει να κάνει άμεσα με τα ιδιαίτερα χαρακτηριστικά του ΑΙ, όπως η ικανότητα μάθησης (machine learning), η αυτονομία, η πολυπλοκότητα κι η αδιαφάνεια της δράσης του, που δεν μας επιτρέπουν να αναλύσουμε διακριτά τα επιμέρους στάδια που ακολουθεί. Ειδικότερα, το φαινόμενο του “black box” αναφέρεται ακριβώς στην τεχνολογία της οποίας η εσωτερική λειτουργία είναι απροσδιόριστη. Ξέρουμε μόνο τι βάζουμε μέσα (inputs) και τι απόκριση παίρνουμε (outputs), αλλά όχι πώς το σύστημα έφτασε σε αυτήν.
Ο νομικός αντίκτυπος είναι ακριβώς η δυσκολία ανεύρεσης της αιτιώδους συνάφειας, δηλαδή του συνδέσμου μεταξύ αιτίας-αποτελέσματος, ώστε συγκεκριμένη ζημία να μπορέσει να αποδοθεί σε συγκεκριμένη ενέργεια. Πόσο μάλλον όταν η ΤΝ αλληλεπιδρά με τον άνθρωπο, οπότε ο βαθμός συμβολής του τελευταίου είναι σχεδόν αδύνατο να διαγνωσθεί με ακρίβεια. Η ζημία οφείλεται άραγε σε σφάλμα στον αλγόριθμο, σε λανθασμένη χρήση, σε προσβολή από κακόβουλο λογισμικό, σε κάτι άλλο;

Όπως επισημαίνεται στη μελέτη με τίτλο «Ευθύνη για ζημιές που προκαλούνται από τεχνητή νοημοσύνη»: «με την ικανότητα να αυτο-εκπαιδεύεται και να συσσωρεύει εμπειρία, η τεχνητή νοημοσύνη μπορεί να λαμβάνει αποφάσεις ανεξάρτητα από τη βούληση του προγραμματιστή της». Χαρακτηριστικό είναι το παράδειγμα του Gaak robot που δραπέτευσε από ένα ερευνητικό κέντρο και προκάλεσε οδικό ατύχημα. «Η συμπεριφορά του ρομπότ εξέπληξε ακόμη και τον δημιουργό του, επειδή το σύστημα AI δεν ήταν προγραμματισμένο να εκτελεί συγκεκριμένες ενέργειες. Το Gaak πήρε μια ανεξάρτητη απόφαση. Επομένως, σε αυτήν την περίπτωση, το ερώτημα είναι: ποιος είναι υπεύθυνος για τις πράξεις του και ποιος πρέπει να αποζημιώσει για τη ζημιά που προκλήθηκε»;
Ας ξεκινήσουμε με τα μέσα του υπάρχοντος δικαίου, που θα μπορούσαν να αξιοποιηθούν.
Η αδικοπραξία, μία από τις κυριότερες πηγές ενοχών, καθιερώνεται στο θεμελιώδες άρθρο 914 του Αστικού Κώδικα και στοιχειοθετεί εξωσυμβατική υποχρέωση προς αποζημίωση. Προϋποθέσεις της είναι η ανθρώπινη, παράνομη κι υπαίτια συμπεριφορά, η ικανότητα προς καταλογισμό, η ύπαρξη ζημίας κι αιτιώδους συνδέσμου. Μιας κι η υπαιτιότητα του ζημιώσαντος (δόλος ή αμέλεια) είναι αναγκαία, η εν λόγω ευθύνη καλείται υποκειμενική–πταισματική.
Κατ’ αρχάς, ερχόμαστε σε σύγκρουση με την προϋπόθεση της ανθρώπινης συμπεριφοράς. Το μεθοδολογικό πρόβλημα ότι η λειτουργία της ΤΝ δεν εμπίπτει σε αυτήν και άρα δεν υπάγεται στην ΑΚ 914 θα μπορούσε να ξεπεραστεί είτε με αναλογική εφαρμογή της διάταξης από το δικαστή, είτε με τη θέσπιση ενός νέου ειδικού κανόνα, που θα απονέμει νομική προσωπικότητα στα νοήμονα μηχανήματα, θα τα ανάγει δηλαδή σε υποκείμενα δικαιωμάτων και υποχρεώσεων. Έτσι, θα διαθέτουν και δικό τους κεφάλαιο, ώστε να ικανοποιούν τα θύματα. Ίσως μία τέτοια «ηλεκτρονική προσωπικότητα» θα ταίριαζε σε συστήματα που χαρακτηρίζονται από υψηλή ανεξαρτησία, δηλαδή παίρνουν αποφάσεις τελείως απρόβλεπτα, χωρίς να υπόκεινται σε εξωτερικό έλεγχο και χωρίς να μπορεί να εξακριβωθεί η ανθρώπινη επιρροή (black–box systems).
Αν ακολουθήσουμε όμως τον παραπάνω δρόμο, δημιουργούνται καινούργια προβλήματα, θεωρητικά και πρακτικά, τεχνολογικά και δογματικά, σχετικά με το πώς τα ρομπότ θα προσπορίζονται οικονομικά στοιχεία, τι θα γίνεται εάν η περιουσία τους δεν φτάνει για την αποκατάσταση της ζημιάς και εν γένει για το πώς θα καταρτίζουν δικαιοπραξίες, πώς θα συμμετέχουν στις συναλλαγές κ.ο.κ. Ταυτόχρονα, το κόστος τους θα αυξανόταν κατακόρυφα.

Προχωρώντας στην προϋπόθεση της παρανομίας, εδώ έχουμε τη δράση ή την αδράνεια του συστήματος που αντίκειται σε δικαιώματα, κανόνες δικαίου κι επιμέλειας. Ως προς την πράξη: υποκλέπτει και διαδίδει προσωπικά δεδομένα, προβαίνει σε ρατσιστικές διακρίσεις, προκαλεί ατύχημα και τραυματίζει κάποιον, φθείρει περιουσία. Ως προς την παράλειψη: π.χ. αυτόνομο ιατρικό ρομπότ σε νοσοκομείο που έχει προγραμματιστεί να ελέγχει ζωτικά σημεία ασθενών και να ειδοποιεί το προσωπικό, σε περίπτωση επικίνδυνων ενδείξεων, αποτυγχάνει. Προκαλείται θάνατος ή σωματική βλάβη.
Ποιος φταίει; Όσον αφορά στην κατάφαση υπαιτιότητας σε συγκεκριμένο πρόσωπο, δυσκολία συναντάμε διότι δεν είναι ευκρινές πού οφείλεται μία επιβλαβής εκτίμηση του συστήματος. Με άλλα λόγια, η ζημία που προξενείται αποδίδεται α) στο χρήστη (user), β) στον προγραμματιστή (developer/programmer), γ) στον κατασκευαστή (manufacturer), δ) στον ιδιοκτήτη/εταιρία (owner/employer) ή ε) στον ίδιο, αν δεχτούμε έναν τέτοιο βαθμό αυτονομίας του, ώστε να έχει κι αυτό νομική προσωπικότητα, όπως επισημάναμε προηγουμένως;
Στην τελευταία περίπτωση, όμως, έχουν τα ίδια τα μηχανήματα ΤΝ, όσο έξυπνα και να είναι, ικανότητα προς καταλογισμό, μπορούν δηλαδή να διακρίνουν το σωστό από το λάθος και το νόμιμο από το παράνομο; Δεδομένου ότι κάτι τέτοιο νοείται μόνο για τα έμβια όντα με έλλογη συνείδηση και πνευματική ωριμότητα.
Ποιος είναι πραγματικά ο ζημιώσας, λοιπόν; Για να το βρούμε, χρειάζεται να ανιχνεύουμε το λόγο της παρανομίας κάθε φορά ακόμα κι αν είναι δύσκολο.
-
Αν έχουμε σφάλμα στο λογισμικό (software), θα ευθύνεται ο προγραμματιστής (π.χ. το ρομπότ δεν αναγνωρίζει επικίνδυνες καταστάσεις, δεν αντιλαμβάνεται τα καθήκοντά του ή τη γενική υποχρέωση καλής πίστης και πρόνοιας για τα αγαθά των τρίτων). Σημειώνουμε εδώ πως οι κανόνες, οι παράμετροι και οι σταθμίσεις, που θα πρέπει να ενσωματώνονται στον κώδικα, εξαρτώνται από το βαθμό ευφυίας και αλληλεπίδρασης της εκάστοτε μηχανής με το κοινωνικό σύνολο και πρέπει να ελέγχονται/επαληθεύονται προσεχτικά.
-
Αν έχουμε πρόβλημα υλικού (hardware failure), θα ευθύνεται ο κατασκευαστής (π.χ. ραντάρ αυτόνομου αυτοκινήτου δεν ανιχνεύει πεζούς ή πινακίδες, η GPU/κάρτα γραφικών υπερθερμαίνεται λόγω βλάβης στο σύστημα ψύξης. Αυτό οδηγεί σε υποβάθμιση της απόδοσης/thermal throttling και σε λανθασμένη επεξεργασία εικόνας από τις κάμερες, με αποτέλεσμα το όχημα να μην αναγνωρίσει ένα σήμα STOP ή ένα εμπόδιο).
-
Ο χειριστής θα ευθύνεται αν κατευθύνει τη μηχανή προς αθέμιτες ενέργειες, αν δεν τηρεί τις οδηγίες χρήσης και συντήρησής της ή αν δεν εγκαθιστά τις αναβαθμίσεις ασφάλειας.
-
Η εταιρία θα ευθύνεται εάν έχει κακόβουλο σκοπό και
-
Ο προμηθευτής δεδομένων (data supplier) εάν εκπαιδεύσει λάθος ή ανεπαρκώς τη μηχανή.
Τέλος, κατά την Πολιτική Δικονομία, η —άκρως κοστοβόρα και συχνά ανέφικτη— απόδειξη όλων των παραπάνω βαραίνει τον ζημιωθέντα-ενάγοντα!
Για όλα αυτά, χρειάζεται: 1) να διαλέξουμε ποια γραμμή θα ακολουθήσουμε στα φιλοσοφικά-ηθικά ζητήματα που ανακύπτουν (όπως για τη λύση της χωριστής ν.π., αν και η τάση μέχρι στιγμής είναι η απόρριψή της) και 2) να οριστούν τόσο αποδεικτικές διευκολύνσεις (π.χ. τεκμαιρόμενη υπαιτιότητα) όσο και ειδικότερα κριτήρια, που θα μας βοηθούν να αντιμετωπίζουμε την εκάστοτε περίπτωση αναλόγως και να εντοπίζουμε τον ή τους υπεύθυνους. Για παράδειγμα, πρέπει να επιστρατευτούν τεχνικά κριτήρια που αφορούν την κατασκευή, οικονομικά που αφορούν το ποιος αντλεί το όφελος κι άλλα σχετικά με το ποιος εισάγει δεδομένα, στόχους, ποιος έχει τον έλεγχο του ρίσκο, ποιος οφείλει να λάβει μέτρα προφύλαξης, αν υπάρχει κάποιος που εποπτεύει κ.λπ.
Συνοπτικά, η παραδοσιακή πταισματική ευθύνη συμφέρει όταν αποδίδεται ανάλογα με το ρόλο του καθενός στην αλυσίδα, τον οποίο και αποτυπώνει. Χρειαζόμαστε δηλαδή ένα εύκαμπτο σύστημα μεικτής και πολυεπίπεδης ευθύνης, που συμπεριλαμβάνει κι εξετάζει όλους τους εμπλεκόμενους. Κάτι τέτοιο, βέβαια, απαιτεί λεπτομερή θεσμική οργάνωση και ενδέχεται να οδηγεί σε καθυστερήσεις. Επίσης, ενέχει δυσχέρειες στο αποδεικτικό κομμάτι κι έτσι κρίνεται ανεπαρκής. Δεν μπορεί να καλύψει πολύπλοκες και θολές περιπτώσεις.
ΕΝΔΕΙΚΤΙΚΗ ΠΗΓΗ
-
Χατζηδάκη Ελένη, Τεχνητή νοημοσύνη και αδικοπρακτική ευθύνη, pergamos.lib.uoa.gr, διαθέσιμο εδώ