Anthropic Selidiki Kebocoran Claude Mythos: Model AI "Terlalu Berbahaya" Bocor ke Tangan yang Salah
Anthropic sedang menyelidiki laporan pembobolan terhadap Claude Mythos Preview, model AI terkuat yang pernah dikembangkan perusahaan tersebut dan sengaja tidak dirilis ke publik karena dinilai terlalu berbahaya. Insiden yang dilaporkan Bloomberg dan CBS News pada 22 April 2026 ini mengguncang komunitas keamanan siber global karena model yang justru diciptakan untuk membantu pertahanan kini berpotensi jatuh ke tangan penyerang.
---
Model yang Sengaja Dikunci Justru Bocor
Claude Mythos Preview diumumkan Anthropic pada 7 April 2026 sebagai bagian dari Project Glasswing, sebuah koalisi keamanan siber dengan partisipasi Amazon, Apple, Cisco, Google, JPMorgan Chase, Microsoft, NVIDIA, dan sekitar 40 organisasi infrastruktur kritis lainnya. Model ini ditempatkan pada tingkat di atas Claude Opus 4.6 dengan kemampuan penemuan kerentanan otonom yang menakutkan. Dalam pengujian internal, Mythos menemukan ribuan zero-day vulnerability di setiap sistem operasi dan browser utama, termasuk bug berusia 27 tahun di OpenBSD yang lolos dari deteksi manusia selama dua dekade.
Anthropic sengaja membatasi akses Mythos hanya untuk pertahanan siber. Namun laporan Bloomberg pada 21 April 2026 mengungkapkan bahwa sekelompok pengguna tidak berwenang telah mendapatkan akses ke model tersebut melalui lingkungan vendor pihak ketiga Anthropic. CBS News kemudian mengonfirmasi pada 22 April bahwa perusahaan sedang menyelidiki dugaan pembobolan tersebut. Sejauh ini Anthropic menyatakan belum mendeteksi pembobolan di luar lingkungan vendor atau kompromi pada sistem internal perusahaan.
---
Cara Kerja Pembobolan dan Risiko yang Mengintai
Menurut laporan Fortune yang mengutip Bloomberg, kelompok pengguna tidak berwenang mengakses Mythos melalui private Discord chat pada hari pengumuman model tersebut. Salah satu anggota kelompok tersebut dikabarkan merupakan kontraktor pihak ketiga untuk Anthropic. Dengan akses ini, mereka mampu menebak lokasi model berdasarkan pengetahuan yang sebelumnya bocor dari startup AI training Mercor tentang praktik Anthropic.
David Lindner, chief information security officer di Contrast Security dan veteran industri keamanan selama 25 tahun, menyatakan kepada Fortune bahwa kebocoran model sebesar Mythos hampir tidak bisa dihindari. "Ini pasti akan terjadi," ujarnya. "Semakin banyak organisasi yang ditambahkan ke kelompok elit ini, semakin besar kemungkinannya bocor ke pihak yang seharusnya tidak memiliki akses." Lindner bahkan memperkirakan bahwa jika kelompok Discord online acak bisa mendapatkan akses, kemungkinan besar teknologi serupa sudah di tangan aktor negara seperti China.
Model AI seperti Mythos memiliki karakteristik unik sebagai senjata siber. AI tidak pernah lelah dan dapat menyerang titik lemah sistem secara tanpa henti, sementara manusia pada akhirnya akan menyerah. Lebih mengkhawatirkan, Mythos menurunkan ambang kemampuan yang diperlukan untuk menemukan dan mengeksploitasi kerentanan dari tingkat ahli keamanan elit menjadi hampir siapa pun yang memiliki akses ke model dan niat jahat.
---
Reaksi Industri dan Perdebatan Keamanan AI
Kebocoran Mythos memicu perdebatan sengit tentang strategi pengembangan AI berkemampuan ofensif. Alissa Valentina Knight, CEO perusahaan keamanan AI Assail, sebelumnya memperingatkan CBS News: "Kita perlu mempersiapkan diri karena kita tidak bisa mengimbangi penjahat ketika masih manusia yang meretas jaringan kita. Kita pasti tidak bisa mengimbangi mereka sekarang jika mereka menggunakan AI karena AI jauh lebih cepat dan lebih canggih."
Di sisi lain, CEO OpenAI Sam Altman justru menyebut promosi Anthropic terhadap Mythos sebagai "fear-based marketing" atau pemasaran berbasis ketakutan. Namun pernyataan ini tidak mengurangi keprihatinan praktisi keamanan. Bruce Schneier, teknolog keamanan terkemuka dan fellow di Berkman Klein Center, Harvard, sebelumnya menyebut pengembangan Mythos sebagai "momen airshed untuk keamanan siber" yang menghancurkan asumsi dasar selama puluhan tahun bahwa menemukan kerentanan adalah pekerjaan yang sulit.
Mozilla menjadi salah satu bukti nyata kekuatan Mythos dalam tangan yang tepat. Perusahaan tersebut melaporkan telah menggunakan preview model untuk mengidentifikasi dan menambal 271 kerentanan pada browser Firefox. Namun ironisnya, Anthropic sendiri telah mengalami dua insiden keamanan sebelumnya dalam satu minggu pada Maret 2026: kesalahan konfigurasi CMS yang memaparkan 3.000 aset internal, dan kebocoran 512.000 baris kode sumber Claude Code melalui npm.
---
Implikasi Jangka Panjang untuk Masa Depan Keamanan Siber
Kebocoran Claude Mythos Preview menandai titik balik dalam diskusi keamanan AI. Ini adalah pertama kalinya model frontier AI yang dinilai terlalu berbahaya untuk dirilis justru bocor ke tangan pihak tidak berwenang dalam hitungan hari setelah peluncuran terbatas. Lindner menekankan bahwa perusahaan kini harus lebih ketat membatasi siapa yang memiliki akses ke sistem paling vital mereka, terutama melalui jalur kontraktor pihak ketiga.
Perusahaan kecil kemungkinan akan terkena dampak paling parah dari era serangan AI-fuelled. Mereka yang menolak menggunakan AI untuk pertahanan sementara penyerang mengadopsinya secara agresif berada dalam posisi yang sangat tidak menguntungkan. Seperti yang diungkapkan Lindner kepada Fortune: "AI bukan tiket emas, tetapi jika Anda tidak memanfaatkannya di sisi pertahanan, tidak ada peluang sama sekali bahwa Anda bisa mengimbangi sisi ofensif."
Anthropic telah berkomitmen menyediakan 100 juta dolar dalam kredit penggunaan dan 4 juta dolar donasi untuk keamanan open source melalui Project Glasswing. Namun dengan lebih dari 99% zero-day yang ditemukan Mythos masih belum ditambal pada saat pengumuman, perlombaan antara pertahanan dan ofensif siber kini memasuki fase baru yang lebih intens dan berbahaya dari sebelumnya.
Sumber: