Μια απογοητευτική είδηση έρχεται από την Ιταλία, επηρεάζοντας όλη την Ευρώπη και την προστασία των πολιτών από την τεχνητή νοημοσύνη, η οποία προς το παρόν δεν φαίνεται εφικτό να γίνει στην πράξη.

Το μοναδικό μεγάλο πρόστιμο που είχε επιβληθεί στην Ευρώπη για παραβιάσεις προσωπικών δεδομένων από generative AI —το πρόστιμο των 15 εκατ. ευρώ της ιταλικής αρχής κατά της OpenAI— ακυρώθηκε οριστικά από δικαστήριο της Ρώμης.

1

Η εξέλιξη αυτή δεν αφορά απλώς μία εταιρεία ή μία υπόθεση σε ένα δικαστήριο κράτους-μέλους. Αγγίζει τον πυρήνα του ερωτήματος που απασχολεί σήμερα νομικούς, επιχειρήσεις και πολίτες: Μπορεί η τεχνητή νοημοσύνη να ρυθμιστεί με ένα σαφές νομικό πλαίσιο που θα προστατεύει τα δικαιώματά μας;

Για πρώτη φορά, η απάντηση μοιάζει λιγότερο βέβαιη από ποτέ. Διότι μαζί με την ακύρωση του προστίμου, καταρρέει και η προσδοκία ότι ο GDPR μπορεί να αποτελέσει το βασικό εργαλείο ελέγχου της AI. Το αποτέλεσμα είναι ένα τοπίο όπου η τεχνολογία εξελίσσεται ραγδαία, τα δεδομένα ρέουν ανεξέλεγκτα, αλλά η επιβολή του δικαίου παραμένει στα χαρτιά.

Το πρόστιμο που είχε δημιουργήσει ελπίδες

Όταν η ιταλική αρχή προστασίας δεδομένων (Garante) επέβαλε το 2024 πρόστιμο 15 εκατ. ευρώ στην OpenAI για τη λειτουργία του ChatGPT, πολλοί το είδαν ως σημείο καμπής. Ήταν η πρώτη φορά που μια ευρωπαϊκή αρχή επιχειρούσε να εφαρμόσει τον GDPR σε συστήματα τεχνητής νοημοσύνης με τόσο σαφή και επιθετικό τρόπο.

Η απόφαση στηριζόταν σε μια σειρά σοβαρών παραβάσεων: έλλειψη σαφούς νομικής βάσης για την εκπαίδευση του μοντέλου, ανεπαρκής διαφάνεια ως προς τη χρήση των δεδομένων, μη ενημέρωση των χρηστών για περιστατικά παραβίασης και αδυναμία αποτελεσματικού ελέγχου ηλικίας. Με λίγα λόγια, η Garante υποστήριζε ότι το ChatGPT έπαιρνε τα δεδομένα μας και τα παραβίαζε, προσκρούοντας ευθέως σε βασικές αρχές του ευρωπαϊκού δικαίου.

Πέρα όμως από τα συγκεκριμένα ευρήματα, η σημασία του προστίμου ήταν κυρίως συμβολική. Έδειχνε ότι οι ευρωπαϊκές αρχές ήταν πρόθυμες να μιλήσουν σοβαρά για το black box της τεχνητής νοημοσύνης, να βρουν τρόπο να το «ανοίξουν» και να φέρουν έτσι μεγαλύτερη διαφάνεια σε ένα από τα μεγαλύτερα αινίγματα της σύγχρονης τεχνολογίας:

Το πώς δηλαδή τα chatbots αξιοποιούν (ίσως και εκμεταλλεύονται) τα δισεκατομμύρια δεδομένων εκεί έξω.

Όλα αυτά, όμως, ανατράπηκαν μέσα σε μερικούς μήνες.

Γιατί ακυρώθηκε το πρόστιμο κατά της OpenAI

Η πορεία προς την ακύρωση του προστίμου δεν ήταν τόσο αιφνιδιαστική για όσους παρακολουθούσαν τα τεκταινόμενα και την αμηχανία των ρυθμιστικών αρχών στην Ευρώπη το τελευταίο διάστημα. Ήδη από το 2025, το δικαστήριο της Ρώμης είχε αναστείλει την εκτέλεση του προστίμου, επισημαίνοντας ότι υπάρχουν σοβαρές αμφιβολίες ως προς τη νομιμότητά του.

Η τελική απόφαση της ακύρωσης του προστίμου προ ολίγων ημερών απλώς επιβεβαίωσε αυτό που πολλοί υποψιάζονταν: Ότι το υφιστάμενο νομικό πλαίσιο δυσκολεύεται να «χωρέσει» την πραγματικότητα της παραγωγικής τεχνητής νοημοσύνης.

Στον πυρήνα του προβλήματος βρίσκεται ένα θεμελιώδες ζήτημα. Ο GDPR, αλλά και γενικότερα κάθε ευρωπαϊκό νομοθέτημα, σχεδιάστηκαν για έναν κόσμο όπου η επεξεργασία δεδομένων μπορούσε να προσδιοριστεί με σαφήνεια. Υπήρχε υπεύθυνος επεξεργασίας, συγκεκριμένα δεδομένα, συγκεκριμένος σκοπός και δυνατότητα ελέγχου.

Στην περίπτωση της τεχνητής νοημοσύνης, αυτή η εικόνα καταρρέει. Τα μοντέλα εκπαιδεύονται σε τεράστιους όγκους δεδομένων από το διαδίκτυο, χωρίς πάντα να είναι σαφές ποια δεδομένα περιλαμβάνονται και σε ποιο βαθμό. Δεν πρόκειται για μια βάση δεδομένων από την οποία μπορείς να αφαιρέσεις ένα στοιχείο. Πρόκειται για ένα σύστημα που μαθαίνει μοτίβα και τα ενσωματώνει με τρόπους που δεν είναι πλήρως ανιχνεύσιμοι.

Και εδώ ακριβώς βρίσκεται το μεγαλύτερο πρόβλημα όσον αφορά την προστασία των δικαιωμάτων μας. Δεν είναι σαφές αν η εκπαίδευση ενός μοντέλου συνιστά επεξεργασία προσωπικών δεδομένων με την έννοια της ευρωπαϊκής νομοθεσίας.

Πώς μπορεί, για παράδειγμα, κάποιος να ασκήσει το δικαίωμα διαγραφής όταν τα δεδομένα του δεν βρίσκονται σε μια λίστα, αλλά έχουν ενσωματωθεί σε ένα νευρωνικό δίκτυο; Πώς μπορεί να υπάρξει πραγματική διαφάνεια όταν ακόμη και οι δημιουργοί των μοντέλων δεν μπορούν να εξηγήσουν πλήρως πώς προκύπτει κάθε απάντηση;

Το πρόβλημα δεν είναι μόνο τεχνικό. Είναι νομικό, αν όχι φιλοσοφικό. Ο GDPR βασίζεται σε έννοιες όπως η προβλεψιμότητα, η λογοδοσία και η δυνατότητα ελέγχου. Η γενική τεχνητή νοημοσύνη, αντίθετα, λειτουργεί ως ένα μαύρο κουτί, ένα σύστημα που παράγει αποτελέσματα χωρίς πλήρως κατανοητή εσωτερική λογική.

Σε αυτό το περιβάλλον, δεν προκαλεί έκπληξη ότι τα δικαστήρια εμφανίζονται επιφυλακτικά. Η ακύρωση του προστίμου δεν σημαίνει, όμως, ότι δεν υπάρχουν προβλήματα. Σημαίνει ότι δεν έχουμε ακόμη τα νομικά εργαλεία για να τα αποδείξουμε και να τα τιμωρήσουμε αποτελεσματικά.

Το ρυθμιστικό κενό σε έναν αχανή κόσμο δεδομένων

Η εξέλιξη αυτή, πάντως, ανοίγει ένα ευρύτερο και ανησυχητικό κεφάλαιο. Εάν ο GDPR δεν μπορεί, τουλάχιστον προς το παρόν, να εφαρμοστεί αποτελεσματικά στην τεχνητή νοημοσύνη, τότε ποιο είναι το πραγματικό νομικό πλαίσιο που τη διέπει;

Η Ευρωπαϊκή Ένωση έχει ήδη κάνει ένα σημαντικό βήμα με τον AI Act. Ωστόσο, ο κανονισμός αυτός εστιάζει κυρίως στην ασφάλεια και την ταξινόμηση κινδύνων των συστημάτων AI, όχι στην προστασία των προσωπικών δεδομένων, αλλά ούτε και σε ένα άλλο τεράστιο διακύβευμα που αφορά τα πνευματικά δικαιώματα.

Διότι πέρα από την προστασία της ιδιωτικότητας, το «black box» της τεχνητής νοημοσύνης άπτεται και ζητημάτων πνευματικής ιδιοκτησίας. Τα μοντέλα εκπαιδεύονται σε περιεχόμενο που προστατεύεται από δικαιώματα, όπως άρθρα, βιβλία και φωτογραφίες, χωρίς να είναι σαφές αν αυτή η χρήση είναι νόμιμη ή αν απαιτεί άδεια. Και εδώ, όπως και στα προσωπικά δεδομένα, η νομολογία είναι ακόμη ανύπαρκτη ή αποσπασματική και η νομοθεσία τυρβάζει αμήχανα.

Το αποτέλεσμα είναι αποκαρδιωτικό. Η Ευρώπη δηλώνει ότι θέλει να είναι παγκόσμιος ηγέτης στη ρύθμιση της τεχνητής νοημοσύνης, αλλά στην πράξη βρίσκεται αντιμέτωπη με ένα ρυθμιστικό κενό, όπου οι κανόνες υποτίθεται ότι υπάρχουν, αλλά δεν εφαρμόζονται με σαφήνεια. Οι αρχές θέλουν να παρέμβου, αλλά οι αποφάσεις τους δεν αντέχουν πάντα στον δικαστικό έλεγχο.

Η ουσία, πάντως, δεν αλλάζει. Τα συστήματα τεχνητής νοημοσύνης συνεχίζουν να εκπαιδεύονται σε τεράστιους όγκους πληροφοριών, με τα δεδομένα κάθε λογής να συλλέγονται, να τυγχάνουν επεξεργασίας και να επαναχρησιμοποιούνται σε κλίμακα που δεν είχε προηγούμενο. Και όμως, δεν γνωρίζουμε με βεβαιότητα ούτε πού καταλήγουν ούτε πώς αξιοποιούνται.

Είναι, λοιπόν, ζήτημα εμπιστοσύνης το να ανοίξει αυτό το μαύρο κουτί, τόσο σε τεχνολογικό όσο και σε νομικό επίπεδο.

Διαβάστε επίσης:

Από τη Metlen έως τη Wall Street: Γιατί οι θέσεις short δεν είναι (πάντα) λόγος επενδυτικής ανησυχίας