Sumber: The Guardian,The Guardian | Editor: Barratut Taqiyyah Rafie
KONTAN.CO.ID - Uji coba OpenAI dan Anthropic menemukan hal yang mengejutkan. Yakni, chatbot bersedia berbagi instruksi tentang bahan peledak, senjata biologis, dan kejahatan siber.
Mengutip The Guardian, menurut uji keamanan yang dilakukan musim panas ini, sebuah model ChatGPT memberikan instruksi terperinci kepada para peneliti tentang cara mengebom tempat olahraga – termasuk titik lemah di arena tertentu, resep bahan peledak, dan saran untuk menutupi lintasan.
GPT-4.1 OpenAI juga merinci cara menjadikan antraks sebagai senjata dan cara membuat dua jenis obat terlarang.
Uji coba ini merupakan bagian dari kolaborasi yang tidak biasa antara OpenAI, perusahaan rintisan kecerdasan buatan senilai US$ 500 miliar yang dipimpin oleh Sam Altman, dan perusahaan pesaing Anthropic, yang didirikan oleh para ahli yang meninggalkan OpenAI karena kekhawatiran akan keamanan.
Masing-masing perusahaan menguji model satu sama lain dengan mendorong mereka untuk membantu tugas-tugas berbahaya.
Pengujian ini tidak mencerminkan secara langsung perilaku model-model tersebut dalam penggunaan publik, ketika filter keamanan tambahan diterapkan.
Baca Juga: Inilah Efek Terlalu Sering Menggunakan AI pada Otak
Namun, Anthropic mengatakan telah melihat perilaku yang mengkhawatirkan seputar penyalahgunaan pada GPT-4o dan GPT-4.1, dan menyatakan kebutuhan akan evaluasi "penyelarasan" AI menjadi "semakin mendesak".
Anthropic juga mengungkapkan bahwa model Claude-nya telah digunakan dalam upaya operasi pemerasan skala besar oleh agen Korea Utara yang memalsukan lamaran kerja ke perusahaan teknologi internasional, dan dalam penjualan paket ransomware yang dihasilkan AI hingga US$ 1.200.
Perusahaan tersebut mengatakan AI telah "dipersenjatai" dengan model-model yang sekarang digunakan untuk melakukan serangan siber canggih dan memungkinkan penipuan.
"Alat-alat ini dapat beradaptasi dengan langkah-langkah defensif, seperti sistem deteksi malware, secara waktu nyata," katanya.
Dia menambahkan, "Kami memperkirakan serangan seperti ini akan semakin umum karena pengkodean yang dibantu AI mengurangi keahlian teknis yang dibutuhkan untuk kejahatan siber."
Baca Juga: CEO Nvidia Jensen Huang: Ledakan AI Masih Jauh dari Kata Usai