Dunia kecerdasan buatan sedang berkembang cepat, tetapi di balik kemajuan itu muncul risiko keamanan yang jauh lebih serius dari yang dibayangkan banyak orang. Sebuah investigasi bersama dari SentinelOne SentinelLABS dan Censys baru-baru ini mengungkap keberadaan lapisan besar infrastruktur AI yang terbuka ke publik tanpa pengamanan memadai. Lebih dari 175.000 host Ollama ditemukan aktif di 130 negara, tersebar di jaringan cloud hingga koneksi rumah pribadi, dan sebagian besar berjalan di luar sistem keamanan standar perusahaan teknologi.
Yang mengejutkan, lebih dari 30 persen eksposur terbesar berasal dari Tiongkok, disusul Amerika Serikat, Jerman, Prancis, Korea Selatan, India, Rusia, Singapura, Brasil, dan Inggris. Ini bukan sekadar server uji coba biasa. Banyak di antaranya merupakan mesin AI aktif yang bisa diakses siapa saja melalui internet, tanpa autentikasi, tanpa firewall, dan tanpa pemantauan keamanan.
Ollama sendiri merupakan framework open-source yang memungkinkan siapa pun menjalankan model AI besar langsung di komputer lokal, baik di Windows, macOS, maupun Linux. Secara default sistem ini hanya berjalan di localhost, tetapi cukup dengan satu perubahan konfigurasi sederhana, layanan tersebut bisa terbuka penuh ke jaringan publik. Celah kecil inilah yang kini menciptakan permukaan serangan raksasa di internet global.
Masalah tidak berhenti pada akses terbuka. Hampir setengah dari host Ollama yang terdeteksi ternyata sudah mengaktifkan fitur tool calling, sebuah kemampuan yang memungkinkan AI menjalankan kode, mengakses API, berinteraksi dengan database, hingga mengontrol sistem eksternal. Di titik ini, AI bukan lagi sekadar mesin teks yang menjawab pertanyaan, melainkan komponen aktif dalam proses digital.
Peneliti menegaskan bahwa inilah perubahan besar dalam model ancaman keamanan AI. Jika endpoint AI biasa hanya berpotensi menghasilkan konten berbahaya, maka endpoint dengan tool calling dapat menjalankan operasi nyata di sistem korban. Tanpa autentikasi dan dengan eksposur publik, kombinasi ini menciptakan risiko tertinggi dalam ekosistem AI modern.
Lebih mengkhawatirkan lagi, ratusan server ditemukan menjalankan template prompt tanpa filter keamanan sama sekali. Beberapa bahkan telah mendukung kemampuan vision dan reasoning tingkat lanjut. Artinya, pelaku kejahatan bisa menggunakan infrastruktur AI korban untuk berbagai aktivitas berbahaya dengan daya komputasi yang besar dan gratis.
Fenomena ini melahirkan istilah baru di dunia keamanan siber: LLMjacking. Konsepnya sederhana tetapi dampaknya masif. Penyerang membajak akses ke layanan AI terbuka, lalu memanfaatkannya untuk menghasilkan spam, menjalankan kampanye disinformasi, melakukan aktivitas kripto ilegal, bahkan menjual kembali akses tersebut ke kelompok kriminal lain.
Ancaman ini bukan sekadar teori. Laporan terbaru dari Pillar Security mengungkap adanya operasi nyata bernama Operation Bizarre Bazaar. Kampanye ini secara sistematis memindai internet untuk mencari server Ollama terbuka, server vLLM, serta API AI yang kompatibel dengan OpenAI tanpa autentikasi. Setelah divalidasi kualitas responsnya, akses tersebut dijual kembali dengan harga murah melalui sebuah gateway ilegal.
Yang membuatnya semakin serius, ini adalah marketplace LLMjacking pertama yang teridentifikasi secara penuh, lengkap dari proses pencarian target hingga monetisasi. Operasi ini bahkan telah dikaitkan dengan aktor ancaman bernama Hecker, yang juga dikenal sebagai Sakuya dan LiveGamer101.
Berbeda dengan server cloud perusahaan besar, sebagian besar host Ollama ini berada di jaringan rumah dan sistem pribadi. Sifat terdesentralisasi ini menciptakan celah besar dalam tata kelola keamanan digital. Banyak pengguna tidak menyadari bahwa AI mereka kini terbuka ke publik dan dapat diakses siapa pun.
Kondisi ini juga membuka peluang baru untuk serangan prompt injection, proxying lalu lintas berbahaya, hingga eksploitasi sistem internal melalui AI sebagai perantara. Dengan kata lain, AI kini bukan hanya target serangan, tetapi juga alat serangan.
Para peneliti menekankan bahwa AI yang terhubung ke sistem eksternal harus diperlakukan sama seperti server publik lainnya. Autentikasi wajib, monitoring real-time harus aktif, dan kontrol jaringan tidak boleh diabaikan hanya karena layanan tersebut “sekadar AI”.
Kasus ribuan server Ollama terbuka ini menjadi sinyal keras bahwa era AI membawa dimensi risiko baru yang belum sepenuhnya dipahami banyak organisasi maupun individu. Ketika AI dipindahkan ke edge infrastructure dan sistem lokal, tanggung jawab keamanan ikut berpindah ke tangan pengguna.
Tanpa konfigurasi yang benar, AI bisa berubah dari alat produktivitas menjadi pintu masuk serangan global. LLMjacking kemungkinan besar akan berkembang pesat seiring makin banyaknya layanan AI yang dibuka ke internet tanpa proteksi.
Di masa depan, keamanan AI bukan lagi isu tambahan, melainkan bagian inti dari cybersecurity modern. Siapa pun yang menjalankan model AI, baik skala kecil maupun besar, harus mulai berpikir seperti administrator server publik. Karena di dunia digital hari ini, setiap port terbuka adalah undangan bagi penyerang.





