Σήμερα ξεκίνησε το Google Cloud next, και είχε κάποια ενδιαφέροντα σημεία σχετικά με την υποδομή που χτίζουν.
Παρουσίασαν τα νέα TPU, v8 με περίπου τριπλάσες επιδόσεις σε σχέση με την γενιά Ironwolf.
2 TPUs, ένα προσανατολισμένο στην εκπαίδευση μοντέλων και ένα στο Inference, η υποδομή στην οποία τρέχουν.
Υπάρχει πολύ deep dive εάν σας ενδιαφέρει, σε μια γραμμή, μας ενδιαφέρει το pod size επειδή πρακτικά είναι ο σκληρός περιορισμός του μεγέθους ενός μοντέλου που μπορεί να τρέξει σε μεγάλη κλίμακα. Αυτό μας ενδιαφέρει επειδή σήμερα όλα τα μεγάλα Lab βγάζουν μοντέλα MoE, το συνολικό μέγεθος του μοντέλο υποδεικνύει το πόση γνώση έχει εγγενώς, χωρίς να χρειαστεί να ψάξει μέσω εργαλείων. Και στο ίδιο μέγεθος των ενεργών παραμέτρων να μείνουν οι Experts που επικαλείται για να μας απαντήσουν, θα δούμε σημαντική βελτίωση.
An overview of Google’s eighth generation TPUs, built for the agentic era.
blog.google
Αυτή είναι η λύση υδρόψυξης που ανέπτυξαν για την υποδομή.
Τέλος, η
Nvidia ανακοίνωσε πως η Google αγόρασε 960,000 GPUs της γενιάς Vera Rubin που μόλις παρουσίασαν, τον περασμένο μήνα.
Μόνο η προμήθεια αυτή είναι 2,5 φορές το Stargate της OpenAI και 4 φορές το Colossus της xAI.
Στο NVL72 packaging, αυτό αντιστοιχεί σε 13,300 rack. 220KW το κάθε rack, είναι στα 3GW οι απαιτήσεις χωρίς τη ψύξη και τις ανάγκες του υπόλοιπου datacenter.
Για το 2026, έχουν παραγγείλει εν τω μεταξύ στη Broadcom 4.3εκ. TPUs (v7 κυρίως).
Σε αυτή τη γενιά, η πυκνότητα είναι 64 TPU ανά rack, οπότε 67,000 rack, στα 70KW ανά rack (ναι, είναι εξαιρετικά πιο efficient, εξού μπαίνουν και στον κόπο), 4,7GW.
Για το 2027, θα παραγγείλουν 10εκ TPU v8. Τα κόστη CapEx για το 2026 είναι 180δις$.