Peringatan Keamanan: Server yang Terbuka Membiarkan Hacker Mengeksploitasi Model AI Sumber Terbuka untuk Penggunaan Ilegal

2026-01-30
Peringatan Keamanan: Server yang Terbuka Membiarkan Hacker Mengeksploitasi Model AI Sumber Terbuka untuk Penggunaan Ilegal

AI sumber terbuka telah mempercepat inovasi dengan kecepatan yang belum pernah terjadi sebelumnya. Penempatan yang ringan, inferensi lokal, dan pengembangan yang digerakkan oleh komunitas telah menurunkan hambatan untuk masuk bagi pengembang di seluruh dunia. Namun, keterbukaan yang sama kini mengungkapkan garis patah yang krusial.

Para peneliti keamanan siber memperingatkan setelah menemukan ribuan server AI yang dapat diakses publik yang menjalankan model bahasa besar (LLM) sumber terbuka tanpa bahkan kontrol keamanan dasar.

Pengaturan yang tidak dikonfigurasi dengan benar, terutama yang menjalankan Ollama, diam-diam berada di internet publik. Tanpa kata sandi. Tanpa pembatasan akses. Tanpa pengaman. Bagi pelaku ancaman, ini bukanlah tantangan. Ini adalah undangan.

Seiring dengan meningkatnya penggunaan model AI yang terpapar oleh penyerang untuk phishing, deepfake, dan pencurian data, risikonya tidak lagi bersifat teoretis. Mereka sudah menjadi operasional, global, dan semakin cepat.

Kesimpulan Utama

  • Ribuan server AI sumber terbuka diekspos secara publik, memungkinkan pembajakan berskala besar oleh penjahat siber

  • Peretas secara aktif memanfaatkan penerapan Ollama yang tidak aman untuk mendukung phishing, deepfake, dan pencurian data.

  • Keamanan penerapan AI yang buruk muncul sebagai risiko siber sistemik, bukan kerentanan kasus tepi.

sign up on Bitrue and get prize

Jelajahi peluang yang didorong oleh AI dan berdagang dengan aman diBitrueuntuk tetap berada di depan risiko dan tren teknologi yang muncul.

Bagaimana Server AI Sumber Terbuka Menjadi Target yang Mudah

Sumber utama di balik ancaman yang semakin meningkat ini secara menyeluruh sederhana: konfigurasi yang salah. Banyak pengembang menerapkan model AI berbasis Ollama untuk eksperimen atau penggunaan internal, tetapi gagal membatasi akses jaringan. Akibatnya, server-server ini tetap dapat diakses dari internet publik tanpa otentikasi.

Security Alert: Exposed Servers Let Hackers Exploit Open-Source AI Models for Illicit Use

Berbeda dengan platform AI terpusat,

open-source LLMs
sering kurang memiliki penegakan keselamatan yang built-in. Ketika terpapar, mereka berfungsi sebagai mesin komputasi mentah yang kuat, anonim, dan tidak terbatas. Peretas tidak perlu membobol. Mereka cukup terhubung.

Ini menciptakan asimetri yang berbahaya. Pembela menganggap ketidakjelasan. Penyerang menganggap skala.

Baca Juga:Mengapa Saham Microsoft Turun: Pertumbuhan Cloud yang Lebih Lambat, Pengeluaran AI Rekor, dan Pertanyaan ROI

Skala Paparan: Titik Buta Keamanan AI Global

Skala paparan jauh lebih besar daripada yang disadari oleh kebanyakan organisasi. SentinelOne dan Censys menganalisis lebih dari 7,23 juta titik data selama 300 hari, mengidentifikasi sekitar 23.000 host AI yang aktif secara konsisten di lebih dari 130 negara.

China menyumbang sekitar 30% dari server yang terpapar, yang terkonsentrasi kuat di Beijing. Amerika Serikat mengikuti dengan 18–20%, sering kali dilacak ke pusat data yang berbasis di Virginia.

Lebih mengkhawatirkan lagi, 56% dari host AI ini beroperasi pada koneksi internet rumah, memungkinkan penyerang untuk mencampurkan lalu lintas jahat dengan IP rumah tangga biasa, sebuah taktik penghindaran yang mempersulit atribusi dan deteksi.

Secara total, peneliti memperkirakan bahwa hingga 175.000 server pribadi mungkin menjalankan model AI yang rentan secara bergantian, menciptakan permukaan serangan yang selalu berubah.

Baca Juga:Sebagian besar CEO Mengatakan AI Belum Meningkatkan Pendapatan atau Mengurangi Biaya: Wawasan Survei

Taktik Eksploitasi Hacker yang Menargetkan Model AI Sumber Terbuka

Aktor ancaman mengandalkan otomatisasi dan visibilitas. Menggunakan platform seperti Shodan dan Censys, penyerang memindai server Ollama yang mendengarkan di port default 11434. Setelah teridentifikasi, eksploitasi seringkali sangat mudah.

Teknik umum meliputi:

  • Server-Side Request Forgery (SSRF)

    untuk beranjak lebih dalam ke dalam sistem yang terhubung

  • Penyebaran kueriuntuk menyelidiki perilaku model, batasan konteks, dan izin

  • Serangan injeksi prompt, terutama pada model dengan pemanggilan alat diaktifkan

Hampir 48% server yang terpapar mendukung pemanggilan alat, secara dramatis memperluas jangkauan ledakan. Melalui prompt yang dirancang dengan cermat, penyerang dapat mengekstrak kunci API, mengakses file lokal, atau membajak layanan yang terhubung.

Instance AI yang terkompromi ini tidak disimpan secara pribadi. Operasi seperti “Bizarre Bazaar” secara terbuka menjual kembali akses AI yang dibajak dengan harga rendah, menawarkan infrastruktur siap pakai untuk kampanye spam, pembuatan deepfake, dan pengumpulan kredensial.

GreyNoise mencatat lebih dari 91.000 serangan terkait AI antara Oktober 2025 dan awal 2026, menyoroti seberapa agresif vektor ini dimanfaatkan.

Baca Juga:WhatsApp Membebankan Biaya Operasional untuk Chatbot AI di Italia

Kejahatan Siber dan Meningkatnya Serangan yang Dipimpin AI Otonom

Tren ini tidak ada dalam isolasi. Menurut pandangan keamanan Check Point untuk tahun 2026, serangan siber global melonjak 70% antara tahun 2023 dan 2025, dengan AI semakin terintegrasi ke dalam rantai alat ofensif.

Beberapa serangan sekarang beroperasi secara semi-otonom. Pada akhir 2025, para peneliti mendokumentasikan sebuah kampanye spionase yang dibantu AI yang mampu secara dinamis menyesuaikan konten phishing secara real-time. LLM yang terpapar memperburuk ancaman ini dengan menyediakan mesin intelijen gratis dan skalabel tanpa batasan etika.

Lebih parah lagi, kerentanan yang baru diungkapkan seperti CVE-2025-197 dan CVE-2025-66959 memungkinkan penyerang untuk menjatuhkan atau mengubah stabilitas hingga 72% dari host yang rentan melalui kelemahan dalam format file model GGUF_K yang banyak digunakan.

Serangan ketersediaan, kebocoran data, dan pergerakan lateral bukan lagi skenario tepi; mereka adalah hasil default dari kebersihan AI yang buruk.

XAG Futures .jpeg

Mengapa Penerapan AI yang Terpapar Merupakan Ancaman Keamanan Jangka Panjang

Bahaya tidak terlindungiModel AI

adalah struktural. Tidak seperti server tradisional, LLM adalah sistem interaktif. Mereka menggunakan akal. Mereka mengingat konteks. Mereka terhubung dengan alat. Ketika terkompromi, mereka menjadi pengganda untuk rekayasa sosial, penipuan, dan pengawasan.

AI sumber terbuka tidak secara inheren tidak aman. Namun, menerapkannya tanpa kontrol akses, autentikasi, atau pemantauan secara efektif mengubah infrastruktur inovasi menjadi infrastruktur kejahatan siber. Seiring dengan percepatan adopsi, begitu pula potensi untuk eksploitasi massal.

Baca Juga:Gugatan Pencurian Data Google Assistant Berakhir dengan Penyelesaian $68 Juta di Tengah Kekhawatiran Privasi

Strategi Mitigasi untuk Mengamankan Model AI Sumber Terbuka

Tindakan defensif tidak rumit dan bukan pilihan. Praktik terbaik termasuk:

  • Mengikat layanan AI seperti Ollama secara ketat ke localhost atau jaringan pribadi

  • Menegakkan autentikasi dan kontrol akses

  • Menonaktifkan fitur pemanggilan alat yang tidak perlu

  • Continuously monitoring for internet-exposed endpoints

Dalam era AI, keamanan dengan asumsi tidak lagi cukup. Visibilitas, disiplin konfigurasi, dan pemodelan ancaman harus menjadi praktik standar.

FAQ

Apa yang membuat server AI sumber terbuka rentan terhadap peretas?

Sebagian besar serangan memanfaatkan kesalahan konfigurasi sederhana di mana server AI dibiarkan dapat diakses publik tanpa kata sandi atau pembatasan jaringan.

Mengapa penyebaran Ollama secara khusus menjadi sasaran?

Ollama sering berjalan di port default yang dikenal dan sering diterapkan tanpa autentikasi, membuatnya mudah untuk dipindai dan dibajak secara besar-besaran.

Bagaimana para peretas menggunakan model AI yang telah dibajak?

Model yang disusupi digunakan untuk konten phishing, pembuatan deepfake, kampanye spam, pencurian data, dan operasi kejahatan siber otomatis.

Seberapa luas paparan server AI?

Para peneliti telah mengidentifikasi puluhan ribu host AI yang terpapar aktif secara global, dengan estimasi mencapai hingga 175.000 server yang rentan.

Bagaimana pengembang dapat mengamankan penerapan AI sumber terbuka?

Dengan membatasi akses jaringan, mengaktifkan otentikasi, menonaktifkan fitur berisiko, dan secara aktif memantau untuk eksposur publik.

Disclaimer

Penafian: Pandangan yang diungkapkan sepenuhnya menjadi milik penulis dan tidak mencerminkan pandangan platform ini. Platform ini dan afiliasinya mengecualikan tanggung jawab atas akurasi atau kesesuaian informasi yang diberikan. Ini hanya untuk tujuan informasi dan tidak dimaksudkan sebagai nasihat keuangan atau investasi.

Penafian: Konten artikel ini tidak memberikan nasihat keuangan atau investasi.

Daftar sekarang untuk mengklaim paket hadiah pendatang baru 3408 USDT

Bergabunglah dengan Bitrue untuk mendapatkan hadiah eksklusif

Daftar Sekarang
register

Disarankan

Tinjauan Moltbook - Ketika AI Memiliki Forum Diskusi Sendiri, Apakah Ini Menyeramkan?
Tinjauan Moltbook - Ketika AI Memiliki Forum Diskusi Sendiri, Apakah Ini Menyeramkan?

Tinjauan Moltbook menjelajahi jejaring sosial yang hanya untuk AI di mana manusia hanya bisa menonton. Apakah forum diskusi AI ini merupakan terobosan atau tanda peringatan?

2026-02-03Baca