ΣΧΕΤΙΚΑ ΑΡΘΡΑ
Μια περίεργη υπόθεση φέρνει ξανά στο προσκήνιο το κύμα δικαστικών διαφορών που έχουν ανακύψει τα τελευταία χρόνια από την εντατικοποίηση της χρήσης της τεχνητής νοημοσύνης και την υποκατάσταση πολλές φορές ευαίσθητων υπηρεσιών που παλαιότερα παρέχονταν αποκλειστικά από ανθρώπους.
Ειδικά στις ΗΠΑ, όπου εν προκειμένω κατατέθηκε και η νέα αγωγή κατά της Open AI, έχουν ξεκινήσει διάφορες διαμάχες που επιχειρούν να απαντήσουν στο κρίσιμο ερώτημα: Ποιος φέρει την ευθύνη όταν ένα σύστημα AI προκαλεί βλάβη;
Σε ορισμένες περιπτώσεις, η συζήτηση πήρε δραματικές διαστάσεις, όπως για παράδειγμα με την αγωγή γονέων που κατηγόρησαν εταιρεία AI ότι το chatbot της ενθάρρυνε τον γιο τους σε αυτοκτονία.
Μέσα σε αυτό το νέο νομικό τοπίο, η πρόσφατη αγωγή που κατατέθηκε πριν λίγες ημέρες στο ομοσπονδιακό δικαστήριο του Ιλινόις θέτει ένα πιο εξειδικευμένο αλλά εξαιρετικά σημαντικό ζήτημα. Μπορεί ένα σύστημα τεχνητής νοημοσύνης να θεωρηθεί ότι ασκεί δικηγορία χωρίς άδεια;
Η υπόθεση στρέφεται κατά της εταιρείας OpenAI, δημιουργού του ChatGPT, και έχει ήδη προκαλέσει έντονη συζήτηση στον νομικό κόσμο, αφού το διακύβευμα δεν αφορά μόνο τη συγκεκριμένη διαφορά, αλλά το μέλλον της σχέσης μεταξύ τεχνητής νοημοσύνης και νομικών υπηρεσιών.
Από μια ασφαλιστική διαφορά σε αγωγή κατά της OpenAI
Η αγωγή κατατέθηκε από την ασφαλιστική εταιρεία Nippon Life Insurance Company of America στο ομοσπονδιακό δικαστήριο της Βόρειας Περιφέρειας του Ιλινόις. Στο επίκεντρο βρίσκεται μια ασφαλιστική διαφορά με εργαζόμενη που είχε λάβει παροχές αναπηρίας.
Σύμφωνα με το δικόγραφο της αγωγής, η εργαζόμενη είχε ασφαλιστική κάλυψη αναπηρίας μέσω του εργοδότη της. Η ασφαλιστική εταιρεία ενέκρινε αρχικά το αίτημά της για παροχές, όμως αργότερα αποφάσισε ότι δεν πληρούσε πλέον τα κριτήρια αναπηρίας και διέκοψε τα επιδόματα. Η εργαζόμενη προσέφυγε στο δικαστήριο το 2022, όμως τελικά οι δύο πλευρές κατέληξαν σε συμβιβασμό.
Η συμφωνία που υπεγράφη το 2024 προέβλεπε ότι η εργαζόμενη θα λάμβανε αποζημίωση και ότι η υπόθεση θα έκλεινε οριστικά. Όπως αναφέρεται στην αγωγή, η εργαζόμενη συμφώνησε να παραιτηθεί από κάθε μελλοντική αξίωση κατά της ασφαλιστικής εταιρείας σχετικά με την ίδια υπόθεση.
Ωστόσο, περίπου έναν χρόνο αργότερα, η εργαζόμενη άρχισε να αμφισβητεί τον συμβιβασμό. Αφού επικοινώνησε με τον δικηγόρο της και έλαβε την απάντηση ότι η υπόθεση δεν μπορούσε πλέον να ανοίξει ξανά, στράφηκε στο ChatGPT.
Σύμφωνα με την αγωγή, η εργαζόμενη ανάρτησε στο chatbot την απάντηση του δικηγόρου της για το τετελεσμένο του συμβιβασμού και ρώτησε αν την «παραπλανά». Το σύστημα φέρεται να απάντησε ότι η απάντηση του δικηγόρου της υποβάθμιζε τα συναισθήματά της και απέφευγε την ευθύνη. Μετά από αυτή την επικοινωνία, η εργαζόμενη απέλυσε τον δικηγόρο της και αποφάσισε να κινηθεί μόνη της δικαστικά.
Πώς το κατάφερε αυτό, αφού δεν είχε νομικές γνώσεις; Χρησιμοποίησε το ChatGPT για να συντάξει τα δικόγραφα και να επιχειρήσει την επαναφορά της υπόθεσης, παρά τον ήδη υπογεγραμμένο συμβιβασμό.
Ωστόσο, όπως άλλωστε ήταν αναμενόμενο, η προσπάθειά της αυτή απέτυχε. Το δικαστήριο απέρριψε το αίτημα επαναφοράς της υπόθεσης, κρίνοντας ότι η αλλαγή γνώμης για έναν συμβιβασμό δεν αποτελεί λόγο ακύρωσης. Το θέμα, όμως, δεν τελείωσε εκεί.
Η ασφαλιστική εταιρεία αποφάσισε να κινηθεί εναντίον της OpenAI, υποστηρίζοντας ότι το ίδιο το σύστημα τεχνητής νοημοσύνης ήταν εκείνο που επέτρεψε την επανεκκίνηση της διαμάχης και οδήγησε σε έναν νέο κύκλο δικαστικής διαμάχης, με επιπλέον κόστη για την εναγόμενη εταιρεία.
Με ποια επιχειρήματα οδηγείται η OpenAI στο δικαστήριο;
Η αγωγή της Nippon Life στηρίζεται σε τρεις βασικές κατηγορίες: παρεμβολή σε σύμβαση, κατάχρηση δικαστικής διαδικασίας και κυρίως μη εξουσιοδοτημένη άσκηση δικηγορίας.
Η ασφαλιστική εταιρεία υποστηρίζει ότι το ChatGPT λειτουργούσε ουσιαστικά ως νομικός βοηθός της εργαζόμενης, χωρίς να έχει εξουσία προς τούτο: «Η αγωγή αυτή προκύπτει από τη συμπεριφορά της OpenAI μέσω του chatbot ChatGPT, το οποίο παρείχε νομική βοήθεια σε χρήστη χωρίς να διαθέτει άδεια άσκησης δικηγορίας».
Σύμφωνα με την εταιρεία, το σύστημα παρείχε όχι απλώς γενικές πληροφορίες αλλά πλήρη νομική υποστήριξη, «παρέχοντας νομική ανάλυση, νομικές συμβουλές, νομική έρευνα και συντάσσοντας νομικά έγγραφα».
Με αυτόν τον τρόπο, το σύστημα βοήθησε την εργαζόμενη να παραβιάσει τον συμβιβασμό και να προσπαθήσει να επαναφέρει την υπόθεση. Όπως αναφέρεται: «Η OpenAI ενθάρρυνε και διευκόλυνε την παραβίαση μιας έγκυρης και εκτελεστής συμφωνίας συμβιβασμού, βοηθώντας την χρήστρια να υποβάλει αίτηση για την επαναφορά αγωγής που είχε απορριφθεί με τελεσίδικη απόφαση».
Έτσι, η ενάγουσα κατέθεσε δεκάδες διαδικαστικά έγγραφα στο δικαστήριο τα οποία είχαν συνταχθεί με τη βοήθεια του chatbot, προκαλώντας σημαντικό κόστος στην εταιρεία: «Η NIPPON αναγκάστηκε να δαπανήσει σημαντικούς πόρους για να αντιμετωπίσει τον καταιγισμό προδήλως αβάσιμων αιτήσεων».
Συνολικά, η εταιρεία ζητά αποζημίωση 300.000 δολαρίων για νομικά έξοδα, καθώς και 10 εκατομμύρια δολάρια ως αποζημίωση για τη ζημία που υποστηρίζει ότι υπέστη.
Φυσικά, η OpenAI αρνείται όλες τις κατηγορίες με βασική γραμμή άμυνάς της να είναι ότι το ChatGPT αποτελεί εργαλείο παραγωγής κειμένου και πληροφοριών, όχι πάροχο νομικών υπηρεσιών. Οι απαντήσεις του, υποστηρίζει, δεν συνιστούν νομική συμβουλή και συνοδεύονται από σαφείς προειδοποιήσεις ότι οι χρήστες πρέπει να συμβουλεύονται επαγγελματίες.
Η μεγάλη συζήτηση: Μπορεί η τεχνητή νοημοσύνη να ασκεί δικηγορία;
Η υπόθεση δεν αφορά μόνο μια ασφαλιστική διαφορά ή μια τεχνολογική εταιρεία, αλλά αγγίζει ένα πολύ βαθύτερο ζήτημα: Ποια είναι τα όρια της τεχνητής νοημοσύνης στην παροχή επαγγελματικών υπηρεσιών.
Η δικηγορία είναι ίσως το πιο ευαίσθητο πεδίο. Σε πολλές χώρες –και φυσικά και στην Ελλάδα– η παροχή νομικών υπηρεσιών αποτελεί δραστηριότητα που επιτρέπεται μόνο σε αδειοδοτημένους επαγγελματίες, αφού οι νομικές συμβουλές μπορούν να έχουν σοβαρές συνέπειες για τα δικαιώματα των πολιτών.
Η εμφάνιση συστημάτων όπως το ChatGPT δημιουργεί όμως ένα νέο γκρίζο πεδίο. Ένα chatbot μπορεί να συντάξει δικόγραφα, να εξηγήσει νομολογία ή να προτείνει νομικές στρατηγικές. Το ερώτημα είναι αν αυτό συνιστά απλή πληροφόρηση ή άσκηση επαγγέλματος χωρίς άδεια.
Παρόμοιες συζητήσεις έχουν ήδη ξεκινήσει και στην Ευρώπη. Η Ευρωπαϊκή Ένωση επιχειρεί να ρυθμίσει τα συστήματα τεχνητής νοημοσύνης μέσω του AI Act, ενώ αρκετοί δικηγορικοί σύλλογοι έχουν εκδώσει οδηγίες για τη χρήση AI στην καθημερινή πρακτική των δικηγόρων.
Για την Ελλάδα, το ζήτημα είναι ιδιαίτερα επίκαιρο. Τα τελευταία χρόνια εμφανίζονται όλο και περισσότερα εργαλεία που υπόσχονται αυτοματοποιημένη νομική υποστήριξη, από σύνταξη συμβάσεων μέχρι ανάλυση νομολογίας. Αν τέτοιες υπηρεσίες παρέχονται απευθείας σε πολίτες χωρίς τη διαμεσολάβηση δικηγόρου, το ερώτημα που τίθεται είναι αν παραβιάζεται το επαγγελματικό «μονοπώλιο» της δικηγορίας.
Ταυτόχρονα, ανακύπτουν και βαθύτερα ηθικά ζητήματα. Ποιος φέρει την ευθύνη όταν ένα σύστημα τεχνητής νοημοσύνης δώσει λάθος συμβουλή; Ο χρήστης που το αξιοποίησε; Η εταιρεία που το δημιούργησε; Ή μήπως κανείς;
Η απάντηση σε αυτά τα ερωτήματα δεν έχει ακόμη δοθεί. Η υπόθεση κατά της OpenAI αποτελεί απλώς ένα από τα πρώτα επεισόδια ενός προβληματισμού που μόλις έχει αρχίσει να ξεδιπλώνεται σε όλο του το βάθος.
Το βέβαιο είναι ότι η τεχνητή νοημοσύνη έχει ήδη εισέλθει στον χώρο του δικαίου. Το ερώτημα πλέον δεν είναι αν θα παραμείνει εκεί, αλλά πώς θα ρυθμιστεί η παρουσία της. Και η απάντηση σε αυτό το ερώτημα θα επηρεάσει όχι μόνο τους δικηγόρους, αλλά και τον τρόπο με τον οποίο οι πολίτες θα έχουν πρόσβαση στη δικαιοσύνη τα επόμενα χρόνια.
ΕΙΔΗΣΕΙΣ ΣΗΜΕΡΑ
- Έ. Χουλιάρα (AstraZeneca): Καινοτομία υπό «διωγμό» – Το χρηματοδοτικό κενό του 1 δισ. και ο κίνδυνος των αποσύρσεων
- Ελένη Γερουλάνου: Η Εθνική Πινακοθήκη με αριθμούς
- Lapin x Mary Katrantzou: Μια συλλογή με έμπνευση τον κόσμο της παιδικής φαντασίας
- Διπλή Ανάπλαση: Η κόντρα Δούκα – Μπακογιάννη, οι καθυστερήσεις και ο διαγωνισμός για τον Ερασιτέχνη
Μοιραστείτε την άποψή σας
ΣχόλιαΓια να σχολιάσετε χρησιμοποιήστε ένα ψευδώνυμο. Παρακαλούμε σχολιάζετε με σεβασμό. Χρησιμοποιείτε κατανοητή γλώσσα και αποφύγετε διατυπώσεις που θα μπορούσαν να παρερμηνευτούν ή να θεωρηθούν προσβλητικές. Με την ανάρτηση σχολίου, συμφωνείτε να τηρείτε τους Όρους του ιστότοπου contact Δημιουργήστε το account σας εδώ, για να κάνετε like, dislike ή report ακατάλληλα/προσβλητικά σχόλια.