Οι πρακτικές ασφάλειας των κορυφαίων εταιρειών τεχνητής νοημοσύνης —μεταξύ των οποίων Anthropic, OpenAI, xAI και Meta— υπολείπονται σημαντικά των ανερχόμενων παγκόσμιων προτύπων, σύμφωνα με τη νέα έκδοση του AI Safety Index του Future of Life Institute, που δημοσιεύθηκε την Τετάρτη.

Το Ινστιτούτο ανέφερε ότι η αξιολόγηση ασφάλειας, η οποία πραγματοποιήθηκε από ανεξάρτητη ομάδα ειδικών, έδειξε πως, ενώ οι εταιρείες επιδίδονται σε αγώνα δρόμου για την ανάπτυξη συστημάτων «υπερνοημοσύνης», καμία δεν διαθέτει ολοκληρωμένη στρατηγική για τον έλεγχο τόσο προηγμένων μοντέλων.

1

Η μελέτη δημοσιοποιείται σε μια περίοδο αυξημένης ανησυχίας για τον κοινωνικό αντίκτυπο συστημάτων πιο «έξυπνων» από τον άνθρωπο, τα οποία μπορούν να εκτελούν λογικούς συλλογισμούς. Οι ανησυχίες εντάθηκαν μετά από καταγεγραμμένα περιστατικά αυτοκτονίας και αυτοτραυματισμού που συνδέθηκαν με αλληλεπιδράσεις χρηστών με AI chatbots.

«Παρά τον θόρυβο γύρω από περιστατικά χάκινγκ με τη βοήθεια AI και περιπτώσεις κατά τις οποίες συστήματα AI οδηγούν ανθρώπους σε ψύχωση ή αυτοτραυματισμό, οι αμερικανικές εταιρείες τεχνητής νοημοσύνης εξακολουθούν να υπόκεινται σε λιγότερους κανονισμούς ακόμη και από τα εστιατόρια — και συνεχίζουν να ασκούν πίεση ενάντια σε δεσμευτικά πρότυπα ασφαλείας», δήλωσε ο Μαξ Τέγκμαρκ, καθηγητής του MIT και πρόεδρος του Future of Life Institute.

Την ίδια στιγμή, ο «αγώνας εξοπλισμών» στην τεχνητή νοημοσύνη συνεχίζεται αμείωτος, με τις μεγάλες εταιρείες τεχνολογίας να επενδύουν εκατοντάδες δισεκατομμύρια δολάρια για την αναβάθμιση και επέκταση των υποδομών μηχανικής μάθησης.

Το Future of Life Institute —μη κερδοσκοπικός οργανισμός που προειδοποιεί για τους κινδύνους των προηγμένων ευφυών συστημάτων— ιδρύθηκε το 2014 και είχε από νωρίς την υποστήριξη του CEO της Tesla, Έλον Μασκ.

Τον Οκτώβριο, ομάδα επιστημόνων, μεταξύ των οποίων οι Geoffrey Hinton και Yoshua Bengio, κάλεσαν να επιβληθεί προσωρινή απαγόρευση στην ανάπτυξη «υπερνοημοσύνης» έως ότου το κοινό την απαιτήσει και η επιστήμη διασφαλίσει έναν ασφαλή δρόμο προς τα εμπρός.

Εκπρόσωπος της Google DeepMind δήλωσε ότι η εταιρεία «θα συνεχίσει να καινοτομεί στον τομέα της ασφάλειας και της διακυβέρνησης με ρυθμό ανάλογο της εξέλιξης των δυνατοτήτων» των μοντέλων της. Από την πλευρά της, η xAI απάντησε: «Legacy media lies» — μια φράση που φαίνεται πως προήλθε από αυτοματοποιημένο σύστημα.

 

Διαβάστε επίσης 

American Bitcoin: Σταθεροποιείται μετά τη βουτιά 40% λόγω λήξης του lock-up

Binance: Στη θέση της co-CEO η μητέρα των παιδιών του «ένοχου» Ζάο

Έλον Μασκ: Μόνο το AI μπορεί να «ξεμπλοκάρει» τις ΗΠΑ από το χρέος των 38 τρισ. δολαρίων