ΣΧΕΤΙΚΑ ΑΡΘΡΑ
Τέλος στο «κρυφτό» πίσω από το «Section 230»: Πώς δύο υποθέσεις τοποθετούν προ των ευθυνών τους Meta και Google για ΑΙ και social media
Τις ανησυχίες του γύρω από την εξέλιξη της Τεχνητής Νοημοσύνης παραδέχθηκε σε συνέντευξή του στο CBS ο CEO της Alphabet, μητρικής της Google, Sundar Pichai.
Ο Pichai ανέφερε πως η Τεχνητή Νοημοσύνη θα απαιτήσει ένα παγκόσμιο ρυθμιστικό πλαίσιο, παρόμοιο με αυτό για τον έλεγχο των πυρηνικών όπλων. Αναγνώρισε δε πως ο ανταγωνισμός στον κλάδο θα μπορούσε να παραμερίσει την ανησυχία για θέματα ασφάλειας.
Σύμφωνα με τον επικεφαλής της Google, oι κυβερνήσεις θα πρέπει να αναπτύξουν παγκόσμια ρυθμιστικά πλαίσια παράλληλα με την ανάπτυξη συστημάτων Τεχνητής Nοημοσύνης, ενώ ανέφερε πως θα μπορούσαν να προκληθούν προβλήματα λόγω της πιθανότητας παραπληροφόρησης.
«Με την Τεχνητή Νοημοσύνη θα είναι εφικτό να δημιουργηθεί εύκολα ένα βίντεο, όπου θα μπορούσε να φαίνεται ο Σκοτ (σ.σ ο δημοσιογράφος που του πήρε τη συνέντευξη) να λέει κάτι, ή εγώ να λέω κάτι, που ποτέ δεν είπαμε. Και θα μπορούσε να είναι αληθοφανές. Σε κοινωνική κλίμακα μπορεί να προκαλέσει μεγάλη ζημιά», ανέφερε.
Ο Pichai υποστήριξε ότι η έκδοση της τεχνολογίας τεχνητής νοημοσύνης που προσφέρει η Google, του chatbot Bard, είναι ασφαλής. Πρόσθεσε δε ότι η Google ενεργεί υπεύθυνα και πως δεν κυκλοφορεί προηγμένες εκδόσεις του Bard στο κοινό για δοκιμή.
Σε ερώτηση του παρουσιαστή για το εάν η Google κυκλοφόρησε το Bard χωρίς να το καταλαβαίνει, ο Pichai ανέφερε πως «δεν νομίζω ότι καταλαβαίνουμε πλήρως ούτε το πώς λειτουργεί το ανθρώπινο μυαλό».
Διαβάστε επίσης
Bard: Στην κυκλοφορία το νέο chatbot τεχνητής νοημοσύνης της Google
ΕΙΔΗΣΕΙΣ ΣΗΜΕΡΑ
- Παύλος Ντε Γκρες – Μαρί Σαντάλ: Πασχαλινή απόδραση στις Μπαχάμες – Φωτογραφίες από το εξοχικό τους
- Σταθεροποίηση στις τιμές ρεύματος στην Ελλάδα – Eπανεκκίνηση της παραγωγής πετρελαίου στον Πρίνο
- Διαπραγματεύσεις ΗΠΑ-Ιράν με το… όπλο παραπόδα
- Reuters: ΕΕ και ΗΠΑ κοντά σε συμφωνία για τα κρίσιμα ορυκτά – Συζητήσεις για διασφάλιση του εφοδιασμού κατά της Κίνας
Μοιραστείτε την άποψή σας
ΣχόλιαΓια να σχολιάσετε χρησιμοποιήστε ένα ψευδώνυμο. Παρακαλούμε σχολιάζετε με σεβασμό. Χρησιμοποιείτε κατανοητή γλώσσα και αποφύγετε διατυπώσεις που θα μπορούσαν να παρερμηνευτούν ή να θεωρηθούν προσβλητικές. Με την ανάρτηση σχολίου, συμφωνείτε να τηρείτε τους Όρους του ιστότοπου contact Δημιουργήστε το account σας εδώ, για να κάνετε like, dislike ή report ακατάλληλα/προσβλητικά σχόλια.