Sumber: Reuters | Editor: Yudho Winarto
KONTAN.CO.ID - BEIJING. Pengembang AI asal China DeepSeek mengumumkan bahwa biaya pelatihan model R1 mereka hanya sebesar US$294.000 atau sekitar Rp 4,8 miliar, jauh lebih rendah dibandingkan angka yang dilaporkan untuk rival di AS.
Melansir Reuters Jumat (19/9/2025), Pernyataan ini muncul dalam makalah yang diterbitkan di jurnal akademik Nature pada Rabu dan diperkirakan akan memicu kembali perdebatan mengenai posisi China dalam perlombaan pengembangan kecerdasan buatan.
Baca Juga: Korea Selatan Tuding DeepSeek Transfer Data Pengguna Tanpa Izin
Dalam artikel tersebut, DeepSeek menjelaskan bahwa model R1 yang berfokus pada kemampuan penalaran menggunakan 512 chip Nvidia H800 dan hanya memerlukan total 80 jam pelatihan. Sebelumnya, perusahaan ini belum pernah merilis estimasi biaya pelatihan R1.
Untuk konteks, biaya pelatihan model AI besar yang digunakan untuk chatbot biasanya mencakup pengoperasian ribuan chip canggih selama berminggu-minggu atau berbulan-bulan untuk memproses jumlah teks dan kode yang sangat besar.
CEO OpenAI Sam Altman pernah menyebut pada 2023 bahwa biaya pelatihan model-model dasar mereka “jauh lebih dari US$100 juta.”
Meski begitu, beberapa pernyataan DeepSeek terkait biaya pengembangan dan teknologi yang digunakan sempat dipertanyakan oleh perusahaan dan pejabat AS.
Chip H800 yang digunakan DeepSeek memang dirancang Nvidia khusus untuk pasar China setelah AS pada Oktober 2022 melarang ekspor chip AI H100 dan A100 yang lebih kuat ke China.
Dalam dokumen tambahan yang menyertai artikel Nature, DeepSeek mengakui bahwa mereka juga memiliki chip A100 dan menggunakannya pada tahap persiapan pengembangan model. Setelah tahap awal tersebut, pelatihan R1 dilakukan pada cluster H800.
Baca Juga: Aturan Baru, OpenAI Berpotensi Meminta KTP Pengguna
Model Distillation
DeepSeek juga untuk pertama kalinya menanggapi tuduhan dari penasihat Gedung Putih dan tokoh AI AS pada Januari bahwa mereka sengaja “mendistilasi” model OpenAI menjadi model mereka sendiri.
Perusahaan membela praktik distillation sebagai cara untuk meningkatkan performa model sekaligus memangkas biaya pelatihan dan operasional.
Distillation adalah teknik di mana satu sistem AI belajar dari sistem AI lain, memungkinkan model baru memanfaatkan investasi waktu dan komputasi dari model sebelumnya tanpa menanggung biaya tinggi yang sama.
DeepSeek menyebut pernah menggunakan model open-source Llama milik Meta untuk beberapa versi modelnya yang didistilasi.
Selain itu, pelatihan data untuk model V3 mereka juga menggunakan halaman web yang mengandung jawaban yang dihasilkan model OpenAI, yang memungkinkan model dasar mereka memperoleh pengetahuan dari model lain secara tidak langsung.
Baca Juga: CEO OpenAI: Perawat Aman, Tapi Profesi Ini Bakal Hilang Karena AI
DeepSeek menekankan hal ini terjadi secara insidental, bukan sengaja.
Hingga saat ini, OpenAI belum memberikan komentar terkait klaim DeepSeek.