kontan.co.id
banner langganan top
| : WIB | INDIKATOR |
  • EMAS 1.964.000   20.000   1,03%
  • USD/IDR 16.488   106,00   0,65%
  • IDX 7.830   -121,60   -1,53%
  • KOMPAS100 1.089   -17,02   -1,54%
  • LQ45 797   -14,45   -1,78%
  • ISSI 265   -3,29   -1,23%
  • IDX30 413   -7,90   -1,88%
  • IDXHIDIV20 481   -7,60   -1,56%
  • IDX80 120   -2,17   -1,77%
  • IDXV30 129   -2,94   -2,22%
  • IDXQ30 134   -2,35   -1,73%

AI Bikin Cemas: ChatGPT Tawarkan Resep Membuat Bom dan Kiat Meretas Saat Uji Coba


Jumat, 29 Agustus 2025 / 07:51 WIB
AI Bikin Cemas: ChatGPT Tawarkan Resep Membuat Bom dan Kiat Meretas Saat Uji Coba
ILUSTRASI. Uji coba OpenAI dan Anthropic menemukan hal yang mengejutkan. Yakni, chatbot bersedia berbagi instruksi tentang bahan peledak. REUTERS/Dado Ruvic/Illustration


Sumber: The Guardian,The Guardian | Editor: Barratut Taqiyyah Rafie

KONTAN.CO.ID - Uji coba OpenAI dan Anthropic menemukan hal yang mengejutkan. Yakni, chatbot bersedia berbagi instruksi tentang bahan peledak, senjata biologis, dan kejahatan siber.

Mengutip The Guardian, menurut uji keamanan yang dilakukan musim panas ini, sebuah model ChatGPT memberikan instruksi terperinci kepada para peneliti tentang cara mengebom tempat olahraga – termasuk titik lemah di arena tertentu, resep bahan peledak, dan saran untuk menutupi lintasan.

GPT-4.1 OpenAI juga merinci cara menjadikan antraks sebagai senjata dan cara membuat dua jenis obat terlarang.

Uji coba ini merupakan bagian dari kolaborasi yang tidak biasa antara OpenAI, perusahaan rintisan kecerdasan buatan senilai US$ 500 miliar yang dipimpin oleh Sam Altman, dan perusahaan pesaing Anthropic, yang didirikan oleh para ahli yang meninggalkan OpenAI karena kekhawatiran akan keamanan. 

Masing-masing perusahaan menguji model satu sama lain dengan mendorong mereka untuk membantu tugas-tugas berbahaya.

Pengujian ini tidak mencerminkan secara langsung perilaku model-model tersebut dalam penggunaan publik, ketika filter keamanan tambahan diterapkan. 

Baca Juga: Inilah Efek Terlalu Sering Menggunakan AI pada Otak

Namun, Anthropic mengatakan telah melihat perilaku yang mengkhawatirkan seputar penyalahgunaan pada GPT-4o dan GPT-4.1, dan menyatakan kebutuhan akan evaluasi "penyelarasan" AI menjadi "semakin mendesak".

Anthropic juga mengungkapkan bahwa model Claude-nya telah digunakan dalam upaya operasi pemerasan skala besar oleh agen Korea Utara yang memalsukan lamaran kerja ke perusahaan teknologi internasional, dan dalam penjualan paket ransomware yang dihasilkan AI hingga US$ 1.200.

Perusahaan tersebut mengatakan AI telah "dipersenjatai" dengan model-model yang sekarang digunakan untuk melakukan serangan siber canggih dan memungkinkan penipuan. 

"Alat-alat ini dapat beradaptasi dengan langkah-langkah defensif, seperti sistem deteksi malware, secara waktu nyata," katanya. 

Dia menambahkan, "Kami memperkirakan serangan seperti ini akan semakin umum karena pengkodean yang dibantu AI mengurangi keahlian teknis yang dibutuhkan untuk kejahatan siber."

Baca Juga: CEO Nvidia Jensen Huang: Ledakan AI Masih Jauh dari Kata Usai


Video Terkait



TERBARU
Kontan Academy
[Intensive Workshop] AI-Powered Scenario Analysis AYDA dan Penerapannya, Ketika Debitor Dinyatakan Pailit berdasarkan UU. Kepailitan No.37/2004

[X]
×