Η Google της Alphabet εργάζεται πάνω σε μια νέα πρωτοβουλία για να καταστήσει τα εξειδικευμένα της chips τεχνητής νοημοσύνης πιο αποτελεσματικά στη λειτουργία του PyTorch, του δημοφιλέστερου παγκοσμίως λογισμικού πλαισίου (framework) για AI. Στόχος της κίνησης είναι να αποδυναμώσει τη μακροχρόνια κυριαρχία της Nvidia στην αγορά υπολογιστικής τεχνητής νοημοσύνης, σύμφωνα με πηγές που γνωρίζουν το θέμα.

Η προσπάθεια, σύμφωνα με το Reuters, εντάσσεται στο επιθετικό σχέδιο της Google να καταστήσει τα Tensor Processing Units (TPUs) μια αξιόπιστη εναλλακτική λύση έναντι των GPUs της Nvidia, που κυριαρχούν σήμερα στην αγορά. Οι πωλήσεις TPUs έχουν εξελιχθεί σε κρίσιμο μοχλό ανάπτυξης για τα έσοδα του Google Cloud, καθώς η εταιρεία επιδιώκει να αποδείξει στους επενδυτές ότι οι τεράστιες επενδύσεις της στην AI αποδίδουν.

1

Ωστόσο, το υλικό (hardware) από μόνο του δεν αρκεί για να ενθαρρύνει τη μαζική υιοθέτηση. Η νέα πρωτοβουλία, με την εσωτερική ονομασία “TorchTPU”, στοχεύει στην άρση ενός βασικού εμποδίου: να καταστήσει τα TPUs πλήρως συμβατά και φιλικά προς τους προγραμματιστές που έχουν ήδη χτίσει τις τεχνολογικές τους υποδομές πάνω στο PyTorch. Σύμφωνα με τις ίδιες πηγές, η Google εξετάζει επίσης το ενδεχόμενο να διαθέσει τμήματα του λογισμικού ως open source, ώστε να επιταχύνει την υιοθέτησή του από την αγορά.

Σε σύγκριση με προηγούμενες προσπάθειες υποστήριξης του PyTorch στα TPUs, η Google έχει αυτή τη φορά αφιερώσει περισσότερους πόρους, οργανωτική προσοχή και στρατηγική βαρύτητα στο TorchTPU. Η ζήτηση αυξάνεται από εταιρείες που θέλουν να υιοθετήσουν τα chips της Google, αλλά θεωρούν το λογισμικό το βασικό «λαιμό μπουκαλιού».

Το πλεονέκτημα του οικοσυστήματος της Nvidia

Το PyTorch, ένα έργο ανοικτού κώδικα που υποστηρίζεται έντονα από τη Meta Platforms, αποτελεί ένα από τα βασικότερα εργαλεία για την ανάπτυξη μοντέλων τεχνητής νοημοσύνης. Στην πράξη, ελάχιστοι προγραμματιστές γράφουν εξ ολοκλήρου τον κώδικα που εκτελείται απευθείας στα chips της Nvidia, της AMD ή της Google. Αντίθετα, βασίζονται σε εργαλεία όπως το PyTorch, που προσφέρουν έτοιμες βιβλιοθήκες και αυτοματοποιούν κρίσιμες λειτουργίες.

Το PyTorch, που κυκλοφόρησε αρχικά το 2016, έχει αναπτυχθεί στενά σε συνάρτηση με το CUDA της Nvidia – το λογισμικό που πολλοί αναλυτές της Wall Street θεωρούν το ισχυρότερο «τείχος προστασίας» της εταιρείας έναντι του ανταγωνισμού. Οι μηχανικοί της Nvidia έχουν αφιερώσει χρόνια ώστε ο κώδικας PyTorch να τρέχει με μέγιστη ταχύτητα και αποδοτικότητα στα δικά της chips.

Αντίθετα, η Google βασίζεται εσωτερικά σε ένα διαφορετικό framework, το Jax, ενώ τα TPUs αξιοποιούν το εργαλείο XLA για βελτιστοποίηση απόδοσης. Το μεγαλύτερο μέρος της εσωτερικής AI στοίβας της Google έχει χτιστεί γύρω από το Jax, διευρύνοντας το χάσμα ανάμεσα στον τρόπο με τον οποίο η ίδια χρησιμοποιεί τα chips της και στον τρόπο που επιθυμούν να τα χρησιμοποιούν οι πελάτες της.

Εκπρόσωπος του Google Cloud δεν σχολίασε τις λεπτομέρειες του έργου, επιβεβαίωσε ωστόσο ότι η κίνηση αποσκοπεί στο να προσφέρει περισσότερες επιλογές στους πελάτες. «Βλέπουμε τεράστια και συνεχώς επιταχυνόμενη ζήτηση τόσο για TPUs όσο και για GPUs», ανέφερε.

Από εσωτερική χρήση σε εμπορική διάθεση

Για χρόνια, η Alphabet κρατούσε τη μερίδα του λέοντος των TPUs αποκλειστικά για εσωτερική χρήση. Αυτό άλλαξε το 2022, όταν το Google Cloud ανέλαβε τη διάθεση των chips, αυξάνοντας δραστικά την προσφορά τους σε εξωτερικούς πελάτες. Καθώς το ενδιαφέρον για την AI εκτοξεύθηκε, η Google ενίσχυσε την παραγωγή και τις πωλήσεις TPUs.

Παρόλα αυτά, η ασυμβατότητα μεταξύ του PyTorch –που χρησιμοποιεί η πλειονότητα των προγραμματιστών παγκοσμίως– και του Jax, στο οποίο είναι βελτιστοποιημένα τα TPUs, καθιστά δύσκολη την υιοθέτηση των chips της Google χωρίς σημαντικό πρόσθετο κόστος και χρόνο μηχανικής υποστήριξης.

Αν επιτύχει, το TorchTPU θα μπορούσε να μειώσει δραστικά το κόστος μετάβασης για εταιρείες που αναζητούν εναλλακτικές λύσεις έναντι των GPUs της Nvidia. Η κυριαρχία της Nvidia δεν βασίζεται μόνο στο hardware, αλλά και στο βαθιά εδραιωμένο οικοσύστημα CUDA, που έχει εξελιχθεί σε προεπιλεγμένο πρότυπο για την εκπαίδευση και λειτουργία μεγάλων AI μοντέλων.

Συνεργασία με τη Meta

Για να επιταχύνει την ανάπτυξη, η Google συνεργάζεται στενά με τη Meta, δημιουργό και βασικό διαχειριστή του PyTorch. Οι δύο εταιρείες συζητούν συμφωνίες για αυξημένη πρόσβαση της Meta σε TPUs, στο πλαίσιο της στρατηγικής της να μειώσει το κόστος υπολογισμών και να περιορίσει την εξάρτησή της από τη Nvidia.

Φέτος, η Google άρχισε να πουλά TPUs απευθείας σε data centers πελατών και όχι μόνο μέσω του cloud της. Παράλληλα, ο Amin Vahdat ανέλαβε επικεφαλής της υποδομής AI, αναφερόμενος απευθείας στον CEO Sundar Pichai.

Η υποδομή αυτή είναι κρίσιμη τόσο για τα εσωτερικά προϊόντα της Google –όπως το chatbot Gemini και η AI-powered αναζήτηση– όσο και για τους πελάτες του Google Cloud, που περιλαμβάνουν εταιρείες όπως η Anthropic.

 

Διαβάστε επίσης 

Η BP διορίζει τη Meg O’Neill νέα CEO – Στροφή σε πετρέλαιο και φυσικό αέριο

Πώς μπορεί η Ελλάδα να φτάσει τα 55 εκατ. τουρίστες ετησίως – Πάνω από 23 δισ. οι εισπράξεις φέτος

Alpha Bank: Σε τροχιά ισχυρής ανάπτυξης το 2026 – Εξαγορές, rebranding και βαθύτερη συνεργασία με την UniCredit