Η Google αποκαλύπτει τον νεότερο υπερυπολογιστή τεχνητής νοημοσύνης, λέει ότι ξεπερνά την Nvidia

Περίληψη άρθρου:
Η Google έχει αναπτύξει έναν ισχυρό υπερυπολογιστή τεχνητής νοημοσύνης με την ονομασία TPU v4, ο οποίος είναι ταχύτερος και αποδοτικότερος από τα ανταγωνιστικά συστήματα της Nvidia. Τροφοδοτείται από πάνω από 4.000 TPUs και χρησιμοποιήθηκε για την εκπαίδευση του μοντέλου PaLM της Google επί 50 ημέρες. Τα αποτελέσματα της Google δεν συγκρίθηκαν με το πιο πρόσφατο τσιπ AI της Nvidia, το H100, λόγω της πιο προηγμένης τεχνολογίας κατασκευής του. Οι απαιτήσεις ισχύος της τεχνητής νοημοσύνης είναι επωφελείς για τους παρόχους cloud, όπως η Google, η Microsoft και η Amazon, οι οποίοι μπορούν να νοικιάζουν την επεξεργασία υπολογιστών με την ώρα.
Αναλυτικά το άρθρο:
H Google δημοσίευσε λεπτομέρειες σχετικά με έναν από τους υπερυπολογιστές τεχνητής νοημοσύνης της την Τετάρτη, λέγοντας ότι είναι ταχύτερος και αποδοτικότερος από τα ανταγωνιστικά συστήματα της Nvidia, καθώς τα ενεργοβόρα μοντέλα μηχανικής μάθησης συνεχίζουν να αποτελούν το πιο καυτό κομμάτι της τεχνολογικής βιομηχανίας.
Ενώ η Nvidia κυριαρχεί στην αγορά για την εκπαίδευση και την ανάπτυξη μοντέλων τεχνητής νοημοσύνης, με ποσοστό άνω του 90%, η Google σχεδιάζει και αναπτύσσει τσιπ τεχνητής νοημοσύνης που ονομάζονται Tensor Processing Units, ή TPUs, από το 2016.
Η Google είναι ένας σημαντικός πρωτοπόρος της ΤΝ και οι υπάλληλοί της έχουν αναπτύξει μερικές από τις σημαντικότερες εξελίξεις στον τομέα την τελευταία δεκαετία. Αλλά ορισμένοι πιστεύουν ότι έχει μείνει πίσω όσον αφορά την εμπορική αξιοποίηση των εφευρέσεών της και εσωτερικά, η εταιρεία τρέχει να κυκλοφορήσει προϊόντα και να αποδείξει ότι δεν έχει σπαταλήσει το προβάδισμά της, μια κατάσταση "κόκκινου κώδικα" στην εταιρεία, όπως ανέφερε προηγουμένως το CNBC.
Μοντέλα και προϊόντα τεχνητής νοημοσύνης, όπως το Bard της Google ή το ChatGPT της OpenAI - που τροφοδοτούνται από τα τσιπ A100 της Nvidia - απαιτούν πολλούς υπολογιστές και εκατοντάδες ή χιλιάδες τσιπ για να συνεργαστούν για την εκπαίδευση των μοντέλων, με τους υπολογιστές να λειτουργούν όλο το εικοσιτετράωρο για εβδομάδες ή μήνες.
Η Google δήλωσε ότι είχε κατασκευάσει ένα σύστημα με πάνω από 4.000 TPUs που ενώθηκαν με προσαρμοσμένα εξαρτήματα σχεδιασμένα για την εκτέλεση και την εκπαίδευση μοντέλων AI. Λειτουργεί από το 2020 και χρησιμοποιήθηκε για την εκπαίδευση του μοντέλου PaLM της Google, το οποίο ανταγωνίζεται το μοντέλο GPT του OpenAI, επί 50 ημέρες.
Ο υπερυπολογιστής της Google που βασίζεται στην TPU, που ονομάζεται TPU v4, είναι "1,2x-1,7x ταχύτερος και χρησιμοποιεί 1,3x-1,9x λιγότερη ενέργεια από τον Nvidia A100", έγραψαν οι ερευνητές της Google.
"Οι επιδόσεις, η επεκτασιμότητα και η διαθεσιμότητα καθιστούν τους υπερυπολογιστές TPU v4 τα άλογα εργασίας των μεγάλων γλωσσικών μοντέλων", συνέχισαν οι ερευνητές.
Ωστόσο, τα αποτελέσματα της TPU της Google δεν συγκρίθηκαν με το πιο πρόσφατο τσιπ τεχνητής νοημοσύνης της Nvidia, το H100, επειδή είναι πιο πρόσφατο και κατασκευάστηκε με πιο προηγμένη τεχνολογία κατασκευής, ανέφεραν οι ερευνητές της Google. Τα αποτελέσματα και οι κατατάξεις από ένα βιομηχανικό τεστ τσιπ AI που ονομάζεται MLperf δημοσιεύθηκαν την Τετάρτη και ο CEO της Nvidia, Jensen Huang, δήλωσε ότι τα αποτελέσματα για το πιο πρόσφατο τσιπ της Nvidia, το H100, ήταν σημαντικά ταχύτερα από την προηγούμενη γενιά.
"Το σημερινό MLPerf 3.0 αναδεικνύει ότι ο Hopper παρέχει 4 φορές μεγαλύτερη απόδοση από τον A100", έγραψε ο Huang σε μια ανάρτηση στο blog. "Το επόμενο επίπεδο της Generative AI απαιτεί νέα υποδομή AI για την εκπαίδευση Large Language Models με μεγάλη ενεργειακή αποδοτικότητα.
Η σημαντική ποσότητα ισχύος του υπολογιστή που απαιτείται για την ΤΝ είναι ακριβή και πολλοί στη βιομηχανία επικεντρώνονται στην ανάπτυξη νέων τσιπ, εξαρτημάτων όπως οι οπτικές συνδέσεις ή τεχνικών λογισμικού που μειώνουν την απαιτούμενη ποσότητα ισχύος του υπολογιστή.
Οι απαιτήσεις ισχύος της τεχνητής νοημοσύνης αποτελούν επίσης ευλογία για τους παρόχους cloud, όπως η Google, η Microsoft και η Amazon , οι οποίοι μπορούν να νοικιάζουν την επεξεργασία των υπολογιστών ανά ώρα και να παρέχουν πιστώσεις ή υπολογιστικό χρόνο σε νεοσύστατες επιχειρήσεις για την οικοδόμηση σχέσεων. (Το νέφος της Google πωλεί επίσης χρόνο σε τσιπ της Nvidia.) Για παράδειγμα, η Google δήλωσε ότι το Midjourney, μια γεννήτρια εικόνων AI, εκπαιδεύτηκε στα τσιπ TPU της.
Πηγή: Google Reveals Its Newest AI Supercomputer, Says It Beats Nvidia
Η Google έχει αναπτύξει έναν ισχυρό υπερυπολογιστή τεχνητής νοημοσύνης με την ονομασία TPU v4, ο οποίος είναι ταχύτερος και αποδοτικότερος από τα ανταγωνιστικά συστήματα της Nvidia. Τροφοδοτείται από πάνω από 4.000 TPUs και χρησιμοποιήθηκε για την εκπαίδευση του μοντέλου PaLM της Google επί 50 ημέρες. Τα αποτελέσματα της Google δεν συγκρίθηκαν με το πιο πρόσφατο τσιπ AI της Nvidia, το H100, λόγω της πιο προηγμένης τεχνολογίας κατασκευής του. Οι απαιτήσεις ισχύος της τεχνητής νοημοσύνης είναι επωφελείς για τους παρόχους cloud, όπως η Google, η Microsoft και η Amazon, οι οποίοι μπορούν να νοικιάζουν την επεξεργασία υπολογιστών με την ώρα.
Αναλυτικά το άρθρο:
H Google δημοσίευσε λεπτομέρειες σχετικά με έναν από τους υπερυπολογιστές τεχνητής νοημοσύνης της την Τετάρτη, λέγοντας ότι είναι ταχύτερος και αποδοτικότερος από τα ανταγωνιστικά συστήματα της Nvidia, καθώς τα ενεργοβόρα μοντέλα μηχανικής μάθησης συνεχίζουν να αποτελούν το πιο καυτό κομμάτι της τεχνολογικής βιομηχανίας.
Ενώ η Nvidia κυριαρχεί στην αγορά για την εκπαίδευση και την ανάπτυξη μοντέλων τεχνητής νοημοσύνης, με ποσοστό άνω του 90%, η Google σχεδιάζει και αναπτύσσει τσιπ τεχνητής νοημοσύνης που ονομάζονται Tensor Processing Units, ή TPUs, από το 2016.
Η Google είναι ένας σημαντικός πρωτοπόρος της ΤΝ και οι υπάλληλοί της έχουν αναπτύξει μερικές από τις σημαντικότερες εξελίξεις στον τομέα την τελευταία δεκαετία. Αλλά ορισμένοι πιστεύουν ότι έχει μείνει πίσω όσον αφορά την εμπορική αξιοποίηση των εφευρέσεών της και εσωτερικά, η εταιρεία τρέχει να κυκλοφορήσει προϊόντα και να αποδείξει ότι δεν έχει σπαταλήσει το προβάδισμά της, μια κατάσταση "κόκκινου κώδικα" στην εταιρεία, όπως ανέφερε προηγουμένως το CNBC.
Μοντέλα και προϊόντα τεχνητής νοημοσύνης, όπως το Bard της Google ή το ChatGPT της OpenAI - που τροφοδοτούνται από τα τσιπ A100 της Nvidia - απαιτούν πολλούς υπολογιστές και εκατοντάδες ή χιλιάδες τσιπ για να συνεργαστούν για την εκπαίδευση των μοντέλων, με τους υπολογιστές να λειτουργούν όλο το εικοσιτετράωρο για εβδομάδες ή μήνες.
Η Google δήλωσε ότι είχε κατασκευάσει ένα σύστημα με πάνω από 4.000 TPUs που ενώθηκαν με προσαρμοσμένα εξαρτήματα σχεδιασμένα για την εκτέλεση και την εκπαίδευση μοντέλων AI. Λειτουργεί από το 2020 και χρησιμοποιήθηκε για την εκπαίδευση του μοντέλου PaLM της Google, το οποίο ανταγωνίζεται το μοντέλο GPT του OpenAI, επί 50 ημέρες.
Ο υπερυπολογιστής της Google που βασίζεται στην TPU, που ονομάζεται TPU v4, είναι "1,2x-1,7x ταχύτερος και χρησιμοποιεί 1,3x-1,9x λιγότερη ενέργεια από τον Nvidia A100", έγραψαν οι ερευνητές της Google.
"Οι επιδόσεις, η επεκτασιμότητα και η διαθεσιμότητα καθιστούν τους υπερυπολογιστές TPU v4 τα άλογα εργασίας των μεγάλων γλωσσικών μοντέλων", συνέχισαν οι ερευνητές.
Ωστόσο, τα αποτελέσματα της TPU της Google δεν συγκρίθηκαν με το πιο πρόσφατο τσιπ τεχνητής νοημοσύνης της Nvidia, το H100, επειδή είναι πιο πρόσφατο και κατασκευάστηκε με πιο προηγμένη τεχνολογία κατασκευής, ανέφεραν οι ερευνητές της Google. Τα αποτελέσματα και οι κατατάξεις από ένα βιομηχανικό τεστ τσιπ AI που ονομάζεται MLperf δημοσιεύθηκαν την Τετάρτη και ο CEO της Nvidia, Jensen Huang, δήλωσε ότι τα αποτελέσματα για το πιο πρόσφατο τσιπ της Nvidia, το H100, ήταν σημαντικά ταχύτερα από την προηγούμενη γενιά.
"Το σημερινό MLPerf 3.0 αναδεικνύει ότι ο Hopper παρέχει 4 φορές μεγαλύτερη απόδοση από τον A100", έγραψε ο Huang σε μια ανάρτηση στο blog. "Το επόμενο επίπεδο της Generative AI απαιτεί νέα υποδομή AI για την εκπαίδευση Large Language Models με μεγάλη ενεργειακή αποδοτικότητα.
Η σημαντική ποσότητα ισχύος του υπολογιστή που απαιτείται για την ΤΝ είναι ακριβή και πολλοί στη βιομηχανία επικεντρώνονται στην ανάπτυξη νέων τσιπ, εξαρτημάτων όπως οι οπτικές συνδέσεις ή τεχνικών λογισμικού που μειώνουν την απαιτούμενη ποσότητα ισχύος του υπολογιστή.
Οι απαιτήσεις ισχύος της τεχνητής νοημοσύνης αποτελούν επίσης ευλογία για τους παρόχους cloud, όπως η Google, η Microsoft και η Amazon , οι οποίοι μπορούν να νοικιάζουν την επεξεργασία των υπολογιστών ανά ώρα και να παρέχουν πιστώσεις ή υπολογιστικό χρόνο σε νεοσύστατες επιχειρήσεις για την οικοδόμηση σχέσεων. (Το νέφος της Google πωλεί επίσης χρόνο σε τσιπ της Nvidia.) Για παράδειγμα, η Google δήλωσε ότι το Midjourney, μια γεννήτρια εικόνων AI, εκπαιδεύτηκε στα τσιπ TPU της.
Πηγή: Google Reveals Its Newest AI Supercomputer, Says It Beats Nvidia
