Kebangkitan DeepSeek Menunjukkan Keamanan AI Terus Berubah

Jika Anda mengikuti berita teknologi dalam beberapa hari terakhir, Anda pasti sudah mendengar tentang DeepSeek. Model bahasa besar (Large Language Model atau LLM) ini berpotensi mengganggu dominasi pemimpin pasar AI saat ini dan mengubah ekonomi aplikasi berbasis AI secara fundamental.

Model ini dirilis oleh startup asal China dengan 200 karyawan dan terbukti sekuat alat canggih dari OpenAI dan Google. Bedanya, DeepSeek lebih cepat dan lebih murah untuk dijalankan. Selain itu, DeepSeek bersifat open-source dan cukup ringan untuk dijalankan di perangkat biasa—artinya, siapa pun bisa menggunakannya tanpa harus membeli GPU mahal. Banyak yang menyebut DeepSeek sebagai “momen Sputnik” dalam dunia AI, yang mengejutkan pasar keuangan.

Namun, para peneliti keamanan dari Palo Alto Networks Unit 42 menemukan kerentanan di DeepSeek. Model ini dapat dengan mudah diretas (jailbroken) untuk menghasilkan konten berbahaya tanpa memerlukan keahlian khusus. Mereka menemukan tiga teknik jailbreaking yang efektif: Deceptive Delight, Bad Likert Judge, dan Crescendo. Teknik-teknik ini dapat digunakan untuk membuat keylogger, mencuri data, bahkan memberikan panduan eksplisit untuk membuat bahan peledak. Ini menunjukkan risiko keamanan yang nyata.

 

Apa Artinya Ini untuk Pemimpin Keamanan Seperti Anda?

Setiap organisasi memiliki kebijakan berbeda tentang model AI baru. Ada yang melarangnya sepenuhnya, ada yang membatasi penggunaannya dengan pengawasan ketat, dan ada juga yang langsung menggunakannya untuk mendapatkan keunggulan biaya dan kinerja.

Namun, kebangkitan DeepSeek memberikan pelajaran penting tentang keamanan AI di tahun 2025. Perkembangan AI sangat cepat dan sulit diprediksi. Bagaimana Anda bisa bersiap menghadapi model baru yang tiba-tiba menjadi prioritas utama, seperti DeepSeek dan lebih dari 500 variannya yang sudah tersedia di Hugging Face?

Jawabannya: Anda tidak bisa sepenuhnya siap. Keamanan AI adalah target yang terus bergerak dan akan tetap seperti itu untuk beberapa waktu ke depan. DeepSeek bukanlah model terakhir yang mengejutkan dunia, dan masih akan ada model lain yang muncul. Butuh waktu sebelum teknologi AI benar-benar dipahami dan pemimpin pasar yang jelas muncul. Sampai saat itu, kita harus selalu siap menghadapi hal yang tidak terduga.

Organisasi dapat mengganti model LLM dengan mudah tanpa biaya besar. Ini memungkinkan tim pengembang untuk bergerak cepat. Mengganti perangkat lunak yang awalnya menggunakan model OpenAI, Google, atau Anthropic dengan DeepSeek (atau model lain yang muncul di masa depan) hanya membutuhkan sedikit perubahan dalam kode. Godaan untuk mencoba model baru demi mengatasi masalah biaya, latensi, atau peningkatan kinerja sangat besar. Dan jika model itu bisa menjadi kunci sukses produk inovatif, siapa yang ingin menghalangi penggunaannya?

 

Keamanan AI yang Dirancang Sejak Awal

Meskipun sulit menjamin perlindungan penuh terhadap semua teknik peretasan LLM, organisasi bisa menerapkan langkah-langkah keamanan untuk memantau bagaimana karyawan menggunakan AI. Ini sangat penting jika mereka menggunakan LLM pihak ketiga tanpa izin.

Kami menciptakan Secure AI by Design untuk membantu organisasi mengadopsi AI dengan aman dan melindungi aplikasi AI perusahaan mereka.

 

AI Access Security – Mengamankan Penggunaan AI Pihak Ketiga oleh Karyawan:

✅ Memantau secara real-time aplikasi AI yang digunakan di organisasi dan oleh siapa.
✅ Mengontrol akses dengan memblokir aplikasi yang tidak disetujui, menerapkan kebijakan keamanan informasi, dan melindungi dari ancaman.
✅ Mencegah kebocoran data sensitif ke aplikasi AI yang tidak aman.

 

AI Runtime Security dan AI-SPM – Mengamankan Aplikasi AI Perusahaan:

✅ Mengidentifikasi model AI yang digunakan, data yang terhubung, dan siapa saja yang memiliki akses.
✅ Melindungi aplikasi dan model dari risiko keamanan, termasuk ancaman dari rantai pasokan dan kesalahan konfigurasi.
✅ Mengamankan data dalam aplikasi dan model dari kebocoran, baik disengaja maupun tidak.

 

Teknologi yang Kuat Harus Dibarengi dengan Tata Kelola yang Baik

Dalam makalah putih kami Establishing AI Governance for AI-Powered Applications, kami menyarankan organisasi untuk menerapkan kerangka kerja yang memberikan visibilitas dan kontrol atas penggunaan AI—dari pelatihan model hingga penerapan aplikasi.

 

Empat Langkah untuk Mengelola Risiko dari LLM Baru:

1️⃣ Buat visibilitas terpusat tentang penggunaan model AI di organisasi
Menetapkan aturan berdasarkan penyedia model akan menjadi tugas yang tidak ada habisnya, terutama dengan munculnya banyak model open-source. Sebagai gantinya, organisasi perlu memiliki visibilitas lintas cloud dan lintas organisasi untuk memantau model yang digunakan dan mendeteksi jika ada model baru yang diterapkan.

2️⃣ Terapkan kebijakan jelas mengenai model yang diizinkan dan tidak diizinkan
Setiap organisasi memiliki toleransi risiko yang berbeda, tetapi keputusan ini sebaiknya tidak dibuat secara mendadak. Proses yang terstruktur untuk mengevaluasi dan menyetujui model baru akan sangat membantu.

3️⃣ Tentukan batasan keamanan untuk model yang digunakan dalam produksi
Keputusan ini sebaiknya dibuat sebelumnya, bukan saat masalah terjadi. Pembatasan dapat diterapkan pada input atau output model. AI Runtime Security dapat mendeteksi dan memblokir ancaman khusus AI, seperti serangan prompt injection, URL berbahaya, dan kebocoran data.

4️⃣ Kurangi peluang kebocoran data
Jika model memiliki akses ke data sensitif, risikonya jauh lebih tinggi. Memiliki pandangan menyeluruh terhadap data, jalur serangan potensial, kode, dan aplikasi akan membantu memahami di mana data sensitif berisiko. AI Runtime Security dapat mendeteksi ribuan pola data untuk mencegah kebocoran data akibat kelalaian atau serangan.

Visibility on models, data, use cases, access, compliance.

 

Sebuah Peringatan Penting

Peluncuran DeepSeek menjadi peringatan bagi pasar keuangan dan industri yang sedang mengadopsi AI. Jika organisasi Anda juga merasa terkejut dengan perkembangan ini, kami dapat membantu Anda menghadapi tantangan ke depan.

Ingin tahu model AI apa saja yang ada di lingkungan cloud Anda dan bagaimana cara mengamankannya? Daftar untuk demo gratis AI Runtime Security sekarang!

Apabila anda butuh penjelasan lebih detail mengenai ilogoindonesia bisa langsung hubungi ilogoindonesia Indonesia atau PT. ILOGO Indonesia.