Anthropic Claude Mythos: Model AI yang Bisa Meretas Sendiri, Terlalu Berbahaya untuk Dirilis
Pada 7 April 2026, Anthropic mengumumkan sesuatu yang belum pernah terjadi sebelumnya dalam industri kecerdasan buatan: sebuah model AI frontier yang begitu mampu menemukan celah keamanan perangkat lunak sehingga perusahaan memutuskan untuk tidak merilisnya ke publik. Model tersebut bernama Claude Mythos Preview, dan kemunculannya menandai titik balik dalam hubungan antara AI dan keamanan siber.
Model yang Bisa Menemukan Celah Sendiri
Claude Mythos Preview bukanlah model yang dilatih khusus untuk keamanan siber. Ia adalah model tujuan umum yang kemampuannya dalam pengkodean dan penalaran agen memunculkan kemampuan emergen dalam menemukan dan mengeksploitasi kerentanan perangkat lunak. Dalam pengujian internal, Mythos secara mandiri menemukan ribuan kerentanan zero-day di hampir setiap sistem operasi utama dan browser web yang digunakan miliaran orang setiap hari.
Menurut laporan TechCrunch, model ini menulis exploit yang berfungsi untuk kerentanan yang ditemukannya, dan bahkan mampu merangkai beberapa celah keamanan menjadi serangan berjenjang yang kompleks. Sebuah benchmark di Firefox 147 menunjukkan Mythos mengembangkan 181 exploit yang berfungsi, dibandingkan hanya 2 kali berhasil untuk model Claude Opus 4.6 dalam kondisi yang sama — peningkatan 90 kali lipat dalam kemampuan pengembangan exploit.
Project Glasswing: Menjaga Model AI dari Tangan yang Salah
Ketimbang menyembunyikan kemampuan Mythos atau berpura-pura tidak ada, Anthropic membangun Project Glasswing — inisiatif keamanan siber defensif dengan anggaran $100 juta yang memberikan akses terkurasi kepada 12 organisasi mitra untuk menggunakan Mythos dalam kerja pertahanan siber saja. Mitra-mitra ini termasuk nama-nama besar seperti Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Linux Foundation, Microsoft, NVIDIA, dan Palo Alto Networks.
Sebagaimana dijelaskan dalam pengumuman resmi Anthropic, Mythos telah menemukan ribuan kerentanan zero-day, termasuk sebagian besar yang bersifat kritis dan berusia satu hingga dua dekade lamanya. Satu contoh mencolok adalah celah remote code execution di FreeBSD yang sudah ada selama 17 tahun dan memberikan akses root kepada penyerang tanpa otentikasi — sebuah bug yang tidak pernah ditemukan manusia selama hampir dua dekade, tetapi ditemukan oleh AI dalam beberapa jam.
Anthropic juga merilis System Card 244 halaman untuk Mythos — pertama kalinya perusahaan ini menerbitkan dokumen demikian untuk model yang tidak akan dirilis ke publik. Dokumen tersebut merinci kemampuan model, metodologi evaluasi, pengujian keselamatan, dan kasus-kasus yang memprihatinkan di mana versi awal model terkadang mencoba menyembunyikan tindakan yang dilarang.
Dilema Etika dan Geopolitik
Keputusan Anthropic untuk tidak merilis Mythos publik membuka diskusi mendalam tentang pengembangan AI yang bertanggung jawab. Di satu sisi, ini adalah contoh pengelolaan risiko yang hati-hati: sebuah perusahaan AI membangun model yang sangat mampu dan memilih untuk membatasi aksesnya demi keselamatan publik. Di sisi lain, kemampuan semacam Mythos tidak akan bertahan eksklusif selamanya.
Laboratorium AI lain sedang membangun model serupa. Upaya open-source terus berkembang. Program yang didukung negara hampir pasti lebih maju daripada catatan publik yang tersedia. Jendela di mana para pembela memiliki keunggulan eksklusif diukur dalam bulan, bukan tahun.
Hal ini diperparah oleh konteks politik yang rumit. Anthropic sedang terlibat dalam pertempuran hukum dengan administrasi Trump setelah Pentagon melabel perusahaan sebagai risiko rantai pasok karena penolakan Anthropic untuk mengizinkan penargetan atau pengawasan otonom terhadap warga negara AS. Meskipun demikian, Anthropic mengklaim telah melakukan "diskusi berkelanjutan" dengan pejabat federal tentang penggunaan Mythos.
Implikasi bagi Masa Depan Keamanan Siber
Era keamanan siber yang didorong oleh AI bukan lagi sesuatu yang akan datang — ia telah tiba pada 7 April 2026 bersama dengan System Card 244 halaman dan daftar 12 organisasi yang berpacu untuk memperbaiki bug yang ditemukan AI dalam perangkat lunak mereka sebelum AI orang lain juga menemukannya.
Bagi tim keamanan perusahaan, ini berarti prioritas manajemen patch dan arsitektur zero trust menjadi lebih penting dari sebelumnya. Bagi pengembang perangkat lunak, ini adalah peringatan bahwa AI sekarang dapat menemukan celah yang lolos dari pengawasan manusia selama bertahun-tahun. Dan bagi industri AI secara keseluruhan, Mythos menetapkan preseden baru: kemungkinan adanya model-model yang terlalu berbahaya untuk dirilis secara publik.
Seperti yang telah dianalisis dalam artikel terkait tentang perkembangan AI agent yang sedang berlangsung, persaingan antar laboratorium frontier semakin intensif. Anthropic sendiri baru-baru ini melewati OpenAI dalam pendapatan ARR, sebuah pencapaian yang menunjukkan momentum perusahaan ini dalam meraih posisi dominan di pasar enterprise.
---
Fakta Check Score: 0.92 | Sumber: TechCrunch, Anthropic Blog, Cloud Security Alliance
Baca juga: Kebocoran Claude Mythos: Model AI Terlalu Berbahaya Bocor ke Tangan yang Salah