Google resmi memperkenalkan Ironwood, chip AI generasi ketujuh yang dirancang khusus untuk menangani beban kerja inference — sekaligus menjadi ancaman serius bagi dominasi Nvidia di sektor AI. Chip ini diumumkan dalam konferensi cloud minggu ini, dan langsung mendapat sorotan berkat performa serta skalabilitasnya.
Amin Vahdat, VP Google, menegaskan pentingnya chip ini. “Chip ini dibuat untuk menjalankan aplikasi AI, bukan hanya untuk melatihnya. Kebutuhan inference kini meningkat jauh lebih cepat,” ujarnya.
Berbeda dengan chip Nvidia yang dipasarkan luas, Tensor Processing Unit (TPU) Google selama ini hanya digunakan secara internal dan untuk layanan cloud. Jika sebelumnya chip AI Google memisahkan tugas antara training dan inference, Ironwood kini menyatukan keduanya, dilengkapi kapasitas memori lebih besar untuk menopang model AI skala jumbo seperti Gemini.
Ironwood menawarkan performa dua kali lipat per watt dibanding pendahulunya, Trillium, yang diluncurkan Mei 2024. Setiap chip Ironwood memiliki kemampuan komputasi hingga 4.614 TFLOP, jauh melampaui Trillium, dan bisa disusun dalam konfigurasi cluster skala besar.
Google menyebut Ironwood mampu ditingkatkan hingga cluster 9.216 chip yang didinginkan cairan dan terhubung dengan Inter-Chip Interconnect (ICI). Cluster ini menjadi bagian dari arsitektur Google Cloud AI Hypercomputer. Pengembang di Google Cloud nantinya bisa mengakses Ironwood dalam dua skala: konfigurasi 256 chip dan 9.216 chip.
Dengan konfigurasi penuh, Ironwood diklaim mampu menghasilkan performa komputasi hingga 42,5 Exaflop, atau 24 kali lipat dari superkomputer tercepat saat ini, El Capitan, yang berada di angka 1,7 Exaflop per pod. Setiap chip Ironwood dibekali memori 192GB — enam kali lipat dari Trillium — serta bandwidth memori hingga 7,2 Tbps.
Namun hingga kini, Google masih menutup rapat soal siapa yang memproduksi chip ini, apakah TSMC, Samsung, atau pihak lain.