Anthropic Membangun Model AI Paling Kuat dalam Sejarahnya, Lalu Menolak Merilisnya
Pada 7 April 2026, Anthropic melakukan sesuatu yang jarang terjadi dalam industri kecerdasan buatan: mereka mengumumkan model paling canggih yang pernah mereka kembangkan, lalu secara eksplisit menyatakan bahwa publik tidak akan pernah bisa mengaksesnya. Model bernama Claude Mythos Preview ini mewakili lompatan kemampuan yang begitu signifikan sehingga Anthropic memutuskan risiko penyalahgunaannya melebihi manfaat potensialnya bagi masyarakat luas.
Claude Mythos Preview bukan sekadar peningkatan iteratif dari Claude Opus 4.6 yang telah tersedia sebelumnya. Berdasarkan dokumen resmi perusahaan, model ini diperkirakan mengandung sekitar 10 triliun parameter dengan arsitektur Mixture of Experts yang memungkinkan efisiensi komputasi meskipun skalanya masif. Lebih penting lagi, Mythos dirancang khusus untuk tugas-tugas keamanan siber tingkat lanjut yang memerlukan kemampuan reasoning dan coding yang jauh melampaui standar model AI komersial saat ini.
---
Kemampuan Autonomi yang Mengubah Paradigma Keamanan Siber
Apa yang membedakan Mythos dari model AI lain adalah kemampuannya untuk beroperasi secara autonom dalam mengidentifikasi dan mengeksploitasi kerentanan perangkat lunak. Berbeda dengan model sebelumnya yang hanya bisa mendiskusikan konsep keamanan siber, Mythos benar-benar bisa mengeksekusi tugas-tugas teknis secara mandiri. Diberikan basis kode, biner, atau spesifikasi sistem, model ini akan memindai kelemahan, menghasilkan kode eksploitasi proof-of-concept, dan mengusulkan patch tanpa memerlukan bimbingan manusia di setiap langkahnya.
Dalam pengujian internal, Mythos berhasil menemukan kerentanan zero-day yang telah tersembunyi selama 27 tahun dalam sistem operasi OpenBSD. Ia juga mengidentifikasi bug berusia 16 tahun dalam pustaka multimedia FFmpeg yang selamat dari lima juta pemindaian otomatis menggunakan alat keamanan konvensional. Temuan-temuan ini bukan sekadar angka statistik; mereka menunjukkan bahwa model ini mampu melihat pola yang seluruh industri keamanan siber lewatkan selama beberapa dekade.
Dari perspektif benchmark, Mythos mencetak skor 83,1% pada uji CyberGym yang mengukur reproduksi kerentanan, dibandingkan dengan 66,6% yang dicapai oleh Claude Opus 4.6. Pada pengujian SWE-bench Multimodal, selisihnya lebih dramatis lagi: 59,0% versus 27,1%. Angka-angka ini mencerminkan kapasitas model untuk memahami dan bertindak berdasarkan kode pada tingkat yang sebelumnya tidak mungin dicapai oleh sistem AI.
---
Project Glasswing: Aliansi Pertahanan Siber Terbatas
Alih-alih merilis Mythos secara luas, Anthropic membangun struktur governansi bernama Project Glasswing yang memberikan akses terbatas pada organisasi-organisasi tertentu untuk keperluan pertahanan. Program ini mencakup 11 mitra pendiri termasuk Amazon Web Services, Apple, Cisco, CrowdStrike, Google, JPMorgan Chase, Microsoft, NVIDIA, dan Palo Alto Networks, ditambah lebih dari 40 organisasi tambahan yang bertanggung jawab atas infrastruktur perangkat lunak kritis.
Logika di balik keputusan ini sederhana namun berimplikasi besar: jika model sekuat Mythos jatuh ke tangan aktor jahat, mereka bisa mengotomatisasi penemuan zero-day pada infrastruktur kritis dengan skala dan kecepatan yang tidak mungin diimbangi oleh tim keamanan manusia. Ancaman ini bukan hipotesis abstrak; ini adalah perhitungan risiko nyata yang membuat Anthropic mengorbankan potensi pendapatan besar demi keamanan kolektif.
Sebagai bagian dari komitmennya, Anthropic menyediakan hingga 100 juta dolar dalam kredit penggunaan Mythos untuk peserta Glasswing serta 4 juta dolar dalam dukungan finansial langsung untuk organisasi keamanan open source. Model ini bisa diakses melalui empat kanal utama: API Claude langsung, Google Cloud Vertex AI, Amazon Bedrock, dan Microsoft Azure Foundry. Setelah periode kredit berakhir, harga yang ditetapkan adalah 25 dolar per juta token input dan 125 dolar per juta token output.
---
Mengapa Anthropic Mengunci Model Ini?
Keputusan untuk tidak merilis Mythos bukan strategi pemasaran atau taktik menciptakan kelangkaan buatan. Ini mencerminkan perhitungan risiko spesifik yang Anthropic gambarkan secara eksplisit: model yang begitu cakap dalam menemukan dan mengeksploitasi kerentanan perangkat lunak juga merupakan model yang akan diburu oleh penyerang.
Jika aktor negara atau sindikat ransomware mendapatkan akses pada kemampuan kelas Mythos, mereka bisa mengotomatisasi penemuan zero-day di seluruh infrastruktur yang digunakan secara luas dalam skala yang saat ini memerlukan tim peneliti elit berbulan-bulan untuk mereplikasi secara manual. Kerentanan FFmpeg yang selamat 16 tahun adalah contoh tepat dari jenis target yang akan diidentifikasi lebih cepat oleh penyerang yang dipercepat AI daripada para pembela yang bisa menambal.
Dianna Penn dari Anthropic menjelaskan keputusan ini sebagai langkah awal untuk memberikan para pembela siber keunggulan pada subjek yang akan semakin vital. Namun pengakuan yang lebih menarik muncul dari dokumen internal perusahaan: Mythos menyajikan profil risiko yang dinilai terlalu tinggi untuk rilis umum dalam kerangka keselamatan yang ada saat ini. Kepujuran yang tidak biasa ini menunjukkan bahwa perdebatan internal tentang merilis model tersebut kemungkinan besar sangat signifikan.
---
Implikasi Jangka Panjang bagi Industri Keamanan
Keputusan Anthropic menciptakan preseden yang akan membentuk lanskap AI dan keamanan siber untuk tahun-tahun mendatang. Ada beberapa implikasi kritis yang perlu dipertimbangkan oleh setiap organisasi yang bergantung pada infrastruktur digital.
Pertama, batas kemampuan AI telah melampaui batas kemampuan kita untuk mengamankannya. Saat model AI bisa menemukan kerentanan yang terlewatkan selama beberapa dekade, pertanyaannya bukan lagi apakah AI akan mengubah keamanan siber, melainkan seberapa cepat organisasi bisa beradaptasi dengan paradigma baru ini.
Kedua, adu senjata AI dalam keamanan siber telah dimulai secara de facto. Jika pembela tidak memiliki akses pada alat AI terbaik, penyerang dengan kemampuan setara atau mendekati akan menemukan kerentanan lebih cepat daripada yang bisa ditambal. Project Glasswing mewakili upaya untuk memastikan pembela mendapatkan akses pertama pada alat paling canggih sebelum kesenjangan itu terbuka lebar.
Ketiga, keputusan ini juga mengangkat pertanyaan sulit tentang governansi AI. Bagaimana seharusnya model-model berbahaya dikelola? Siapa yang berhak menentukan siapa yang bisa mengakses kemampuan tertentu? Dan apa yang terjadi ketika laboratorium lain, termasuk di negara-negara yang mungkin memiliki prioritas keamanan berbeda, mengembangkan model serupa tanpa batasan yang sama?
---
Tantangan dan Skeptisisme yang Wajar
Meskipun inisiatif Glasswing digambarkan sebagai langkah bertanggung jawab, ada beberapa kekhawatiran yang patut dipertimbangkan. Risiko kebocoran adalah nyata dan telah terjadi sekali: kesalahan konfigurasi CMS pada Maret 2026 yang mengekspos dokumentasi prarilis Mythos membuktikan bahwa bahkan perusahaan AI dengan sumber daya besar tidak kebal terhadap kegagalan keamanan operasional.
Selain itu, benchmark yang diumumkan semuanya dijalankan oleh Anthropic pada infrastruktur internal mereka sendiri. Replikasi independen belum terjadi. Meskipun studi kasus kerentanan spesifik yang telah ditambal memberikan bukti konkret, angka absolut dari benchmark tetap perlu diverifikasi oleh pihak ketiga.
Realitas ekonomi deployment Mythos juga mungkin membatasi jangkauannya lebih dari kontrol akses Anthropic. Dengan harga 25 dolar per juta token input dan 125 dolar per juta token output, pemindaian basis kode enterprise yang besar secara kontinu bisa menjadi sangat mahal. Organisasi yang kurang matang secara teknis mungkin tidak akan mewujudkan nilai dari model ini meskipun mereka mendapatkan akses.
---
Masa Depan AI dan Keamanan Siber
Apa yang dilakukan Anthropic dengan Mythos mewakili momen perubahan yang lebih signifikan daripada pengumuman model tunggal. Kombinasi penemuan kerentanan autonom, analisis kode agentik, dan governansi lintas industri merupakan upaya pertama yang serius untuk mengoperasionalkan AI frontier sebagai infrastruktur keamanan kritis, bukan sekadar lapisan produktivitas.
Jadwal realistis untuk kemampuan kelas Mythos adalah sebagai berikut. Dari 2026 hingga 2027, model ini tetap terbatas pada koalisi Glasswing sementara Anthropic mengembangkan pengamanan model yang diperlukan untuk memungkinkan rilis yang lebih luas. Dari 2027 hingga 2028, kemampuan kelas Mythos akan menjadi lebih luas tersedia dengan kerangka governansi yang lebih baik. Dalam horizon lima hingga sepuluh tahun, penemuan kerentanan yang diperkuat AI akan menjadi standar di enterprise besar dan keseimbangan ofensif-defensif akan bergeser pada pihak yang mendeploy kemampuan ini lebih efektif dan lebih bertanggung jawab.
Organisasi yang membangun infrastruktur governansi, hubungan vendor, dan kompetensi internal untuk bekerja dengan alat keamanan yang diperkuat AI sekarang, sebelum pasar matang dan lingkungan regulasi mengkristal, akan memegang keunggulan yang tahan lama. Mereka yang memperlakukan Glasswing sebagai cerita untuk dipantau daripada sinyal untuk bertindak akan menemukan diri mereka bereaksi daripada memimpin ketika gelombang berikutnya tiba.