ΣΧΕΤΙΚΑ ΑΡΘΡΑ
Η OpenAI ανακοίνωσε ότι κατέληξε σε συμφωνία με το Υπουργείο Πολέμου των ΗΠΑ για την ανάπτυξη των μοντέλων της στο διαβαθμισμένο δίκτυό του.
Δύο από τις σημαντικότερες αρχές ασφάλειας της OpenAI είναι η απαγόρευση της μαζικής εγχώριας παρακολούθησης και η ανθρώπινη ευθύνη για τη χρήση βίας, συμπεριλαμβανομένων των αυτόνομων οπλικών συστημάτων, ανέφερε ο διευθύνων σύμβουλος Σαμ Άλτμαν σε ανάρτησή του στην πλατφόρμα X.
«Το Υπουργείο Πολέμου συμφωνεί με αυτές τις αρχές, τις αποτυπώνει στη νομοθεσία και την πολιτική του, και τις ενσωματώσαμε στη συμφωνία μας», δήλωσε. «Θα αναπτύξουμε επίσης τεχνικές δικλίδες ασφαλείας ώστε να διασφαλίσουμε ότι τα μοντέλα μας λειτουργούν όπως πρέπει, κάτι που επιθυμούσε επίσης το Υπουργείο Πολέμου».
Ο διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν, δήλωσε αργά την Παρασκευή ότι κατέληξε σε συμφωνία με το υπουργείο, η οποία αντανακλά τις αρχές της εταιρείας σχετικά με την απαγόρευση της «μαζικής εγχώριας παρακολούθησης και την ανθρώπινη ευθύνη για τη χρήση βίας, συμπεριλαμβανομένων των αυτόνομων οπλικών συστημάτων». Η νεοφυής εταιρεία ανέπτυξε επίσης δικλίδες ασφαλείας ώστε να διασφαλίζεται ότι τα μοντέλα της λειτουργούν όπως πρέπει στο πλαίσιο της ανάπτυξής τους, ανέφερε ο Άλτμαν σε ανάρτησή του στην πλατφόρμα X.
Η OpenAI αρνήθηκε να σχολιάσει εάν οι υπηρεσίες της προς το υπουργείο θα αντικαταστήσουν το έργο που παρείχε προηγουμένως η Anthropic. .
Λίγες ώρες νωρίτερα, το Πεντάγωνο χαρακτήρισε την Anthropic ως κίνδυνο για την εφοδιαστική αλυσίδα, κίνηση που θα μπορούσε να έχει σοβαρές συνέπειες για τις δραστηριότητες της εταιρείας και να κλιμακώσει τη διαμάχη μεταξύ της εταιρείας τεχνητής νοημοσύνης και αξιωματούχων της άμυνας σχετικά με τις δικλίδες ασφαλείας της τεχνολογίας της.
Σε ανάρτησή του στην πλατφόρμα X, ο Υπουργός Άμυνας Πιτ Χέγκσεθ όρισε περίοδο έξι μηνών για να μεταβιβάσει η Anthropic τις υπηρεσίες τεχνητής νοημοσύνης σε άλλον πάροχο. «Οι Αμερικανοί μαχητές μας δεν θα γίνουν ποτέ όμηροι των ιδεολογικών ιδιοτροπιών της Big Tech», έγραψε. «Αυτή η απόφαση είναι οριστική». Η ανάρτησή του έγινε λίγο μετά τη δήλωση του Προέδρου Ντόναλντ Τραμπ στα μέσα κοινωνικής δικτύωσης ότι δίνει εντολή στις ομοσπονδιακές υπηρεσίες να διακόψουν τη συνεργασία με την Anthropic.
Η Anthropic, η οποία έχει ορίσει ότι τα προϊόντα της δεν πρέπει να χρησιμοποιούνται για την παρακολούθηση Αμερικανών πολιτών ούτε για την εκτέλεση επιθέσεων χωρίς ανθρώπινη εμπλοκή, δήλωσε την Παρασκευή ότι «καμία μορφή εκφοβισμού ή τιμωρίας από το Υπουργείο Πολέμου δεν θα αλλάξει τη θέση μας σχετικά με τη μαζική εγχώρια παρακολούθηση ή τα πλήρως αυτόνομα όπλα».
Νωρίτερα μέσα στην εβδομάδα, το Πεντάγωνο είχε προτείνει όρους στην Anthropic που ενσωμάτωναν ορισμένη γλώσσα που είχε προτείνει η εταιρεία σχετικά με την παρακολούθηση και την αυτονομία, σύμφωνα με πρόσωπο με γνώση της υπόθεσης που ζήτησε να μην κατονομαστεί επειδή οι συνομιλίες δεν ήταν δημόσιες. Ωστόσο, κατά την άποψη της Anthropic, οι όροι δεν προχωρούσαν αρκετά ώστε να διασφαλίζουν ότι το υπουργείο δεν θα μπορούσε να παρακάμπτει τους περιορισμούς όταν το κρίνει απαραίτητο, ανέφερε το ίδιο πρόσωπο.
Η συμφωνία της OpenAI με το Πεντάγωνο απειλεί να διευρύνει το ρήγμα μεταξύ της κυβέρνησης Τραμπ και της Anthropic, η οποία έχει συγκεντρώσει ισχυρή υποστήριξη στη Σίλικον Βάλεϊ, όπου εργαζόμενοι στον τεχνολογικό κλάδο τάχθηκαν στο πλευρό της εταιρείας και κάλεσαν άλλους τεχνολογικούς κολοσσούς, όπως η Amazon.com Inc. και η Microsoft Corp., να ακολουθήσουν το παράδειγμά της.
Ο Άλτμαν αναφέρθηκε εκ νέου στα ζητήματα παρακολούθησης και αυτόνομων όπλων, λέγοντας ότι το Υπουργείο Άμυνας συμφώνησε με τις αρχές της εταιρείας και τις αποτύπωσε στη συμφωνία με την OpenAI — καλώντας το υπουργείο «να προσφέρει τους ίδιους όρους σε όλες τις εταιρείες τεχνητής νοημοσύνης, κάτι που κατά τη γνώμη μας όλοι θα έπρεπε να είναι διατεθειμένοι να αποδεχθούν».
Ο Ντάριο Αμοντέι, διευθύνων σύμβουλος της Anthropic, είχε εργαστεί στο παρελθόν στην OpenAI και αποχώρησε το 2020 εν μέρει λόγω ανησυχιών ότι η εταιρεία έδινε προτεραιότητα στην εμπορευματοποίηση και την ταχύτητα έναντι της ασφάλειας. Η OpenAI ξεκίνησε ως μη κερδοσκοπικός οργανισμός και πέρυσι μετατράπηκε σε πιο παραδοσιακή κερδοσκοπική επιχείρηση. Παρότι αρχικά απαγόρευε τη χρήση της τεχνολογίας της για στρατιωτικές εφαρμογές, η OpenAI επικαιροποίησε την πολιτική της το 2024 ώστε να επιτρέψει τέτοιες χρήσεις. Η εταιρεία έχει επίσης αφαιρέσει τη λέξη «με ασφάλεια» από τη διατύπωση της αποστολής της, η οποία σήμερα αναφέρει ότι στόχος της είναι «να διασφαλίσει ότι η τεχνητή γενική νοημοσύνη — συστήματα ΤΝ που είναι γενικά εξυπνότερα από τους ανθρώπους — ωφελεί ολόκληρη την ανθρωπότητα».
Τόσο η Anthropic όσο και η OpenAI στρέφουν πλέον ολοένα και περισσότερο την προσοχή τους στην κερδοφορία, καθώς προετοιμάζουν ενδεχόμενες αρχικές δημόσιες εγγραφές ακόμη και εντός του έτους, αξιοποιώντας το έντονο επενδυτικό ενδιαφέρον για την τεχνητή νοημοσύνη.
Νωρίτερα την Παρασκευή, η OpenAI ανακοίνωσε ότι άντλησε 110 δισ. δολάρια σε συμφωνία που αποτιμά τη νεοφυή εταιρεία στα 730 δισ. δολάρια — τον μεγαλύτερο μέχρι σήμερα γύρο χρηματοδότησης για τη δημιουργό του ChatGPT — ενισχύοντας τη δαπανηρή της προσπάθεια να εξασφαλίσει περισσότερη υπολογιστική ισχύ και ταλέντο για την ανάπτυξη ΤΝ. Η Anthropic συγκέντρωσε 30 δισ. δολάρια σε γύρο χρηματοδότησης νωρίτερα αυτόν τον μήνα από ορισμένους από τους ίδιους επενδυτές της OpenAI.
Ο Αμοντέι και ο Άλτμαν έχουν συγκρουστεί δημόσια κατά καιρούς τα τελευταία χρόνια. Πιο πρόσφατα, σε σύνοδο για την τεχνητή νοημοσύνη στο Νέο Δελχί αυτόν τον μήνα, οι δύο άνδρες βρέθηκαν να στέκονται δίπλα-δίπλα με τον Πρωθυπουργό Ναρέντρα Μόντι και, σε αντίθεση με τους υπόλοιπους που ήταν παραταγμένοι στη σκηνή, δεν έδωσαν τα χέρια τους ο ένας στον άλλον.
Διαβάστε επίσης
Τραμπ κατά Anthropic: Απαγορεύει τα προϊόντα της από όλες τις ομοσπονδιακές υπηρεσίες των ΗΠΑ
OpenAI: Άντλησε 110 δισ. δολάρια, με μεγάλες επενδύσεις από Amazon, SoftBank και Nvidia
Μοιραστείτε την άποψή σας
ΣχόλιαΓια να σχολιάσετε χρησιμοποιήστε ένα ψευδώνυμο. Παρακαλούμε σχολιάζετε με σεβασμό. Χρησιμοποιείτε κατανοητή γλώσσα και αποφύγετε διατυπώσεις που θα μπορούσαν να παρερμηνευτούν ή να θεωρηθούν προσβλητικές. Με την ανάρτηση σχολίου, συμφωνείτε να τηρείτε τους Όρους του ιστότοπου contact Δημιουργήστε το account σας εδώ, για να κάνετε like, dislike ή report ακατάλληλα/προσβλητικά σχόλια.