Google Cloud Perkenalkan TPU v8: Chip AI Generasi Kedelapan untuk Saingi Nvidia

Google Cloud meluncurkan dua chip AI baru pada konferensi Google Cloud Next 2026 di Las Vegas, AS. Chip generasi kedelapan ini dinamai TPU 8t untuk pelatihan model dan TPU 8i untuk inference, menandai langkah serius Google dalam persaingan infrastruktur AI global.

Dikutip dari TechCrunch (22/4/2026), Google mengklaim TPU v8 menghadirkan peningkatan signifikan: hingga 3x lebih cepat dalam pelatihan model AI, performa per dolar meningkat 80%, dan kemampuan mengelompokkan lebih dari satu juta TPU dalam satu cluster tunggal. Peningkatan ini berarti lebih banyak daya komputasi dengan konsumsi energi lebih rendah dibandingkan generasi sebelumnya.

---

Mengapa Dua Chip Berbeda?

Pemisahan antara TPU 8t dan TPU 8i mencerminkan pemahaman Google terhadap evolusi kebutuhan AI modern. TPU 8t dioptimalkan untuk training — proses melatih model AI dari awal yang membutuhkan daya komputasi intensif. Sementara TPU 8i dirancang khusus untuk inference, yaitu menjalankan model yang sudah dilatih untuk merespons permintaan pengguna. Inference menjadi semakin penting seiring ledakan penggunaan AI agent di tingkat enterprise.

Google tidak menggantikan Nvidia secara keseluruhan. Perusahaan justru mengkonfirmasi chip terbaru Nvidia, Vera Rubin, akan tetap tersedia di infrastruktur Google Cloud. Kolaborasi ini menunjukkan pendekatan hibrida: menggunakan chip custom untuk efisiensi biaya sambil tetap menyediakan opsi Nvidia bagi pelanggan yang membutuhkan ekosistem CUDA.

---

Pelanggan Besar Bergeser ke TPU

Sinyal paling signifikan dari peluncuran ini bukan pada spesifikasi teknis, melainkan pada daftar pelanggan yang diumumkan. Anthropic memperluas komitmen ke multiple gigawatt kapasitas TPU generasi berikutnya. Meta menandatangani kesepakatan multiyear bernilai miliaran dolar pada Februari 2026. Dan yang paling mengejutkan — OpenAI, yang selama ini menjadi pelanggan utama Microsoft-Nvidia, kini juga mengambil kapasitas TPU Google.

Pergeseran OpenAI ke Google silicon adalah retakan pertama dalam asumsi bahwa GPU Nvidia adalah satu-satunya infrastruktur serius untuk AI frontier. Sementara Nvidia masih mendominasi dengan kapitalisasi pasar mendekati $5 triliun, diversifikasi dari hyperscaler menandakan tekanan baru pada posisi monopoli jangka panjang perusahaan tersebut.

---

Implikasi untuk Pasar AI Chip

Pasar chip AI global diperkirakan mencapai $91 miliar pada 2026 dengan pertumbuhan tahunan 35%. Nvidia memegang sekitar 80% pangsa pasar, tetapi alternatif mulai bermunculan dari berbagai arah. Amazon dengan Trainium, Microsoft dengan Maia 100, dan Meta dengan MTIA semuanya mengembangkan solusi proprietary.

Namun perang chip AI bukan hanya soal hardware. Ekosistem perangkat lunak CUDA Nvidia telah dibangun selama 18 tahun, menciptakan moat yang sulit dilintasi. Porting beban kerja dari CUDA ke TPU memerlukan investasi rekayasa perangkat lunak signifikan yang tidak tercermin dalam benchmark vendor. Google harus menutup kesenjangan software ini agar keunggulan hardware TPU benar-benar berubah menjadi pendapatan berkelanjutan.

---

Menyongsong Masa Depan Komputasi AI

Langkah Google meluncurkan TPU v8 bersamaan dengan kolaborasi jaringan Falcon dengan Nvidia menunjukkan strategi pragmatis: bersaing di beberapa front sambil tetap bermitra di yang lain. Perusahaan juga bekerja sama dengan Broadcom untuk desain chip dan MediaTek untuk varian inference, menciptakan kompetisi internal antar mitra untuk menekan biaya produksi.

Bagi pelanggan enterprise, kehadiran lebih banyak pilihan infrastruktur AI berarti daya tawar lebih besar dan fleksibilitas arsitektur. Bagi investor, pertarungan GOOGL versus NVDA akan menjadi narasi sentral dalam siklus capex AI selama beberapa tahun ke depan. Yang pasti, era di mana Nvidia adalah satu-satunya jawaban telah berlalu — masa depan komputasi AI adalah ekosistem, bukan monopoli.

---

Referensi