Ο χαρακτηρισμός «supply chain risk» και το μπλόκο από κρατικές συμβάσεις στις ΗΠΑ, αποτέλεσαν αντικείμενο διαμάχης, με αποτέλεσμα ο αμερικανικός κολοσσός AI Anthropic, να μηνύει την κυβέρνηση Τραμπ.

Ειδικότερα, η εταιρεία Τεχνητής Νοημοσύνης, προσέφυγε στη Δικαιοσύνη κατά του Πενταγώνου μετά τον χαρακτηρισμό της ως κινδύνου για την αλυσίδα εφοδιασμού, σε μια σύγκρουση για τη χρήση της AI σε στρατιωτικές εφαρμογές και οπλικά συστήματα.

1

Η εταιρεία σημειώνει ότι η κυβέρνηση την αποκλείει από κρατικές συμβάσεις επειδή αρνήθηκε να επιτρέψει την απεριόριστη χρήση της Τεχνητής Νοημοσύνης της σε εφαρμογές όπως η μαζική επιτήρηση και τα αυτόνομα οπλικά συστήματα.

Μάλιστα, ζητεί από το δικαστήριο να ακυρώσει τον χαρακτηρισμό της ως «κινδύνου για την αλυσίδα εφοδιασμού» των ΗΠΑ και να υποχρεώσει τις ομοσπονδιακές υπηρεσίες να αποσύρουν σχετικές οδηγίες που την αποκλείουν από συνεργασίες με την κυβέρνηση.

Η εταιρεία, με έδρα το Σαν Φρανσίσκο, αμφισβητεί απόφαση του Υπουργείου Άμυνας και άλλων ομοσπονδιακών υπηρεσιών να μεταφέρουν τα έργα Τεχνητής Νοημοσύνης σε άλλους παρόχους.

Σημειώνεται ότι ο χαρακτηρισμός αυτός χρησιμοποιείται συνήθως για εταιρείες από χώρες που οι ΗΠΑ θεωρούν αντίπαλες.

Όπως αναφέρει η αγωγή που κατατέθηκε τη Δευτέρα σε ομοσπονδιακό δικαστήριο του Σαν Φρανσίσκο, οι ενέργειες της κυβέρνησης είναι «πρωτοφανείς και παράνομες» και απειλούν άμεσα τη δραστηριότητα της εταιρείας.

«Το Σύνταγμα δεν επιτρέπει στην κυβέρνηση να χρησιμοποιεί την τεράστια ισχύ της για να τιμωρεί μια εταιρεία επειδή εξέφρασε προστατευόμενη άποψη», αναφέρεται.

Η εταιρεία υποστηρίζει επίσης ότι η απόφαση της κυβέρνησης θέτει σε κίνδυνο συμβάσεις με ιδιωτικές επιχειρήσεις και έσοδα εκατομμυρίων στο άμεσο μέλλον.

Σύμφωνα με την Anthropic, οι συνέπειες ενδέχεται να είναι ευρύτερες.

Η εταιρεία προειδοποιεί ότι η υπόθεση μπορεί να επηρεάσει την ελευθερία έκφρασης των εταιρειών που συνεργάζονται με το κράτος, αλλά και τον δημόσιο διάλογο για τον ρόλο της Τεχνητής Νοημοσύνης στον πόλεμο και στην επιτήρηση.

Πώς ξεκίνησε η σύγκρουση

Το πολεμικό κλίμα ξεκίνησε τον προηγούμενο μήνα, όταν το Πεντάγωνο επιδίωξε να χρησιμοποιήσει το μοντέλο AI Claude χωρίς περιορισμούς και για κάθε νόμιμο σκοπό.

Η Anthropic αρνήθηκε, επιμένοντας ότι το chatbot δεν πρέπει να χρησιμοποιείται για μαζική παρακολούθηση Αμερικανών πολιτών ούτε σε πλήρως αυτόνομα οπλικά συστήματα.

Η αντίδραση της κυβέρνησης ήταν άμεση.

Στις 27 Φεβρουαρίου, ο υπουργός Άμυνας Πιτ Χέγκσεθ διέταξε το Πεντάγωνο την απαγόρευση κάθε εμπορικής δραστηριότητας με την Anthropic.

Σε ανάρτησή του στην πλατφόρμα X, έδωσε προθεσμία έξι μηνών στην εταιρεία για να μεταφέρει τις υπηρεσίες τεχνητής νοημοσύνης σε άλλον πάροχο.

Την ίδια ημέρα, ο Πρόεδρος των Ηνωμένων Πολιτειών επιτέθηκε στην εταιρεία μέσω της πλατφόρμας Truth Social, υποστηρίζοντας ότι έκανε «καταστροφικό λάθος προσπαθώντας να εκβιάσει το Υπουργείο Πολέμου».

Ο Τραμπ ζήτησε επίσης από τις ομοσπονδιακές υπηρεσίες να σταματήσουν να χρησιμοποιούν το σύστημα Claude.

Η αγωγή της εταιρείας στρέφεται κατά του «Υπουργείου Πολέμου» — όρος που χρησιμοποιεί η κυβέρνηση Τραμπ για το Υπουργείο Άμυνας — καθώς και κατά περισσότερων από δώδεκα ομοσπονδιακών υπηρεσιών.

Να σημειωθεί ότι ο Λευκός Οίκος υπερασπίστηκε τις αποφάσεις της κυβέρνησης.

Ωστόσο, ο CEO της Anthropic ανέφερε χαρακτηριστικά ότι: «Στο στόχαστρο του Τραμπ επειδή αρνηθήκαμε να τον υμνούμε σαν δικτάτορα!».

Ο αντίκτυπος των περιορισμών

Την ίδια στιγμή, η Anthropic υποστηρίζει ότι οι περιορισμοί που επέβαλε στη χρήση της τεχνολογίας της βασίζονται στη δική της κατανόηση των κινδύνων της τεχνητής νοημοσύνης.

Σύμφωνα με την εταιρεία, το σύστημα Claude μπορεί να κάνει λάθη και διαθέτει πρωτοφανή δυνατότητα να επιταχύνει και να αυτοματοποιεί την ανάλυση τεράστιων όγκων δεδομένων, συμπεριλαμβανομένων δεδομένων για Αμερικανούς πολίτες.

Δεκάδες επιστήμονες τεχνητής νοημοσύνης στηρίζουν την άποψη της Anthropic, μεταξύ των οποίων ερευνητές από την OpenAI και τη Google.

Σε κοινή επιστολή προς το δικαστήριο υποστήριξαν ότι τα σημερινά συστήματα τεχνητής νοημοσύνης δεν μπορούν να διαχειριστούν με ασφάλεια πλήρως αυτόνομα συστήματα θανατηφόρας στόχευσης και δεν πρέπει να χρησιμοποιούνται για μαζική επιτήρηση στο εσωτερικό των Ηνωμένων Πολιτειών.

Παράλληλα με την κύρια αγωγή, η Anthropic κατέθεσε και προσφυγή σε εφετείο της Ουάσινγκτον, αμφισβητώντας τη νομική βάση του χαρακτηρισμού «κινδύνου για την αλυσίδα εφοδιασμού».

Σύμφωνα με την εταιρεία, το υπουργείο Άμυνας υπερέβη τις αρμοδιότητές του με αποφάσεις που χαρακτηρίζονται «αυθαίρετες, παράλογες και κατάχρηση εξουσίας».

Η αντιπαράθεση προκάλεσε έντονες αντιδράσεις και στην αγορά.

Διαβάστε επίσης: 

Αναλυτής JPMorgan: Ο πόλεμος στο Ιράν πιθανότατα να τερματιστεί μέσα στις επόμενες δύο εβδομάδες

Η CGM είχε έσοδα 54,4 δισ. δολάρια και μειωμένα κέρδη στα 2,4 δισ. δολάρια

Πετρέλαιο: Το αμερικανικό WTI ξεπέρασε για πρώτη φορά εδώ και μήνες το Brent