Beberapa tahun terakhir, dunia teknologi berubah dengan sangat cepat. Salah satu pemicunya adalah kehadiran model kecerdasan buatan yang disebut Large Language Models, atau LLM. Nama ini mungkin terdengar rumit, tetapi Anda sebenarnya bertemu dengan teknologi ini setiap hari. Chatbot yang bisa menjawab pertanyaan, aplikasi yang meringkas teks panjang, penerjemah otomatis, hingga asisten digital di ponsel Anda adalah contoh dari LLM.
Model bahasa ini mampu memahami pola bahasa, memilih kata yang sesuai, bahkan menyusun paragraf seperti manusia. Kemampuan ini membuat berbagai industri berebut untuk memanfaatkannya, dari pendidikan, kesehatan, transportasi, hingga hiburan. Namun di balik kecanggihan itu, ada sisi lain yang jarang dibicarakan: LLM rentan diserang dan dapat menimbulkan risiko bagi keamanan dan privasi.
Makalah ilmiah berjudul Security and Privacy Challenges of Large Language Models yang terbit pada tahun 2025 mengupas secara menyeluruh risiko tersebut. Tulisan ini mencoba menjelaskan isi penelitian tersebut dalam bahasa yang lebih mudah dipahami.
Baca juga artikel tentang: Nyquist Sampling Rate: Fondasi Pengolahan Sinyal Digital
Bagaimana LLM Bisa Berfungsi Seperti Itu?
LLM bekerja dengan menganalisis jumlah data teks yang sangat besar, mungkin mencapai miliaran kata. Dari data itu, model belajar menentukan pola, memprediksi kata berikutnya, memahami makna kalimat, dan menyusun jawaban yang tampak cerdas. Namun karena LLM belajar dari data, kualitas dan keamanan model sangat bergantung pada keamanan data yang dipakai untuk melatihnya.
Disinilah masalah dimulai.
Risiko Pertama: Jailbreaking atau Upaya Membobol Aturan Model
Walaupun LLM dirancang dengan batasan agar tidak memberikan informasi berbahaya, pengguna kreatif kadang menemukan cara untuk memaksa model keluar dari aturan itu. Teknik ini populer dengan istilah jailbreaking.
Bayangkan seseorang meminta LLM memberikan cara membuat zat berbahaya atau melanggar hukum. Model seharusnya menolak. Tetapi melalui susunan kata tertentu, perintah tidak langsung, atau trik psikologis, beberapa LLM bisa dibujuk untuk membocorkan informasi yang seharusnya disembunyikan.
Misalnya, seseorang bisa berpura-pura melakukan penelitian dan meminta informasi sensitif. Model yang tidak cukup kuat dalam memfilter permintaan bisa memberikan jawaban tanpa sadar membantu tindakan berbahaya.
Hal ini menunjukkan bahwa kecerdasan buatan masih bisa dimanipulasi melalui bahasa, sesuatu yang bagi manusia mungkin mudah dideteksi, tetapi bagi model justru menjadi celah besar.
Risiko Kedua: Serangan Data Poisoning
Model AI hanya sebaik data yang digunakan untuk melatihnya. Jika data tersebut disusupi informasi palsu, berbahaya, atau sengaja dimanipulasi, maka kemampuan model pun akan terpengaruh. Inilah yang disebut data poisoning.
Bayangkan seseorang menyusupkan ribuan teks palsu ke internet, lalu teks itu ikut digunakan sebagai data pelatihan. Jika informasi palsu itu konsisten, model bisa menganggapnya benar. Pada akhirnya, pengguna yang bertanya kepada model dapat menerima jawaban yang salah, bias, atau bahkan membahayakan.
Peluang ini semakin besar karena banyak LLM mengambil data dari sumber publik seperti forum, blog, atau artikel online. Jika tidak diawasi, manipulasi data di dunia maya bisa berimbas langsung pada kualitas model.
Risiko Ketiga: Kebocoran Informasi Pribadi
Sebagian besar data yang dipakai untuk melatih model mengandung informasi pribadi, baik nama, alamat email, atau detail lainnya. Meski perusahaan biasanya melakukan penyaringan, tetap ada kemungkinan data sensitif lolos dan digunakan oleh model.
Serangan yang dikenal sebagai personally identifiable information leakage dapat membuat model tanpa sengaja membocorkan informasi pribadi ini ketika pengguna mengajukan pertanyaan tertentu. Misalnya, seseorang bertanya tentang orang tertentu dan model mungkin mengungkapkan detail yang seharusnya dirahasiakan.
Ini adalah salah satu kekhawatiran terbesar dalam era kecerdasan buatan, terutama ketika pengguna tidak selalu tahu apa saja data yang telah dikumpulkan atau bagaimana data itu digunakan.
Risiko Keempat: Serangan Terhadap Sistem yang Menggunakan LLM
LLM kini digunakan di berbagai sektor termasuk transportasi, pendidikan, layanan kesehatan, dan keuangan. Akibatnya, serangan terhadap LLM dapat berdampak langsung pada kehidupan sehari hari.
Misalnya:
Dalam transportasi, model yang digunakan untuk memprediksi kebutuhan logistik dapat memberikan prediksi salah jika datanya diserang.
Dalam kesehatan, chatbot medis berbasis LLM bisa memberikan informasi yang keliru tentang diagnosis.
Dalam pendidikan, sistem penilaian otomatis dapat salah memberikan nilai jika ada manipulasi data atau respons.
Karena LLM telah masuk ke sistem vital, serangan digital kini dapat berdampak pada keputusan dunia nyata.
Munculnya Bentuk Serangan Baru
Penelitian ini juga menyoroti bahwa ancaman terhadap LLM berkembang sangat cepat. Ketika perusahaan memperbaiki satu kelemahan, muncul metode serangan baru seperti:
Prompt injection, yaitu ketika pengguna menyisipkan instruksi tersembunyi untuk mengubah cara kerja model.
Serangan membership inference yang mencoba menebak apakah data tertentu digunakan untuk melatih model.
Serangan model extraction yang bertujuan menyalin kemampuan model melalui interaksi semata, bahkan tanpa memiliki akses langsung ke sistem internalnya.
Semua ini menunjukkan bahwa pertahanan AI bukan sekadar menambahkan aturan atau memblokir konten, tetapi membutuhkan pendekatan keamanan yang jauh lebih kompleks.
Bagaimana Melindungi LLM dari Risiko Ini?
Penelitian tersebut tidak hanya membahas ancaman, tetapi juga pendekatan untuk mengurangi risiko. Beberapa strategi yang diusulkan antara lain:
Mengembangkan mekanisme penyaringan data yang sangat ketat agar data berbahaya tidak masuk ke pelatihan model.
Membangun sistem keamanan berlapis untuk mendeteksi upaya jailbreaking atau prompt injection.
Menerapkan teknik privasi seperti differential privacy guna memastikan data pribadi tidak dapat dikembalikan atau ditebak dari jawaban model.
Menggunakan model yang dapat diawasi perilakunya melalui evaluasi berkala.
Kerja sama internasional untuk mengatur standar keamanan AI.
Meski demikian, para peneliti mengakui bahwa masih banyak celah yang belum sepenuhnya dipahami. Dunia AI bergerak lebih cepat daripada aturan regulasi dan sistem keamanan yang ada.
Menuju Masa Depan AI yang Aman
LLM adalah salah satu terobosan teknologi paling berpengaruh abad ini. Namun seperti teknologi besar lainnya, ia membawa risiko besar. Penelitian tahun 2025 ini menegaskan bahwa keamanan kecerdasan buatan bukanlah isu teknis semata, melainkan isu sosial yang bisa memengaruhi privasi, keselamatan, dan kepercayaan publik.
Untuk menciptakan masa depan yang aman, para peneliti, pemerintah, dan perusahaan perlu bekerja sama memastikan bahwa teknologi yang semakin pintar ini tidak justru menimbulkan ancaman baru.
Baca juga artikel tentang: Luaran Sensor: Apakah Arus atau Tegangan yang Lebih Baik?
REFERENSI:
Das, Badhan Chandra dkk. 2025. Security and privacy challenges of large language models: A survey. ACM Computing Surveys 57 (6), 1-39.

