Beberapa tahun terakhir, kecerdasan buatan berkembang sangat cepat, terutama dalam kemampuan komputer memahami gambar. Salah satu teknologi yang paling berpengaruh adalah model image segmentation atau pemisahan objek dalam gambar. Model ini memungkinkan komputer mengenali mana manusia, mana mobil, mana pohon, dan bagian mana dari gambar yang berisi objek tertentu. Teknologi tersebut sangat penting bagi mobil tanpa sopir, analisis video, kamera keamanan, kesehatan, hingga robotika.
Salah satu model segmentasi paling terkenal adalah SAM, singkatan dari Segment Anything Model. Dirilis oleh Meta AI, SAM tercatat sebagai terobosan besar karena bisa digunakan untuk apa saja. Ia mampu menandai objek dalam gambar hanya dengan satu klik atau satu kalimat perintah. Versi lanjutannya, SAM2, lebih canggih karena memiliki kemampuan video segmentation, yaitu memahami objek dalam berurutan gambar atau video, bukan hanya satu foto.
Namun, seperti teknologi lainnya, SAM dan SAM2 tidak sempurna. Ada celah yang membuat keduanya rentan terhadap apa yang disebut sebagai serangan adversarial, yaitu manipulasi halus pada gambar agar komputer membuat kesalahan, sering kali tanpa disadari oleh manusia.
Sebuah penelitian terbaru berjudul “Vanish into Thin Air: Cross-prompt Universal Adversarial Attacks for SAM2” mengungkapkan bahwa SAM2, meskipun lebih kuat, masih bisa ditipu dengan cara tertentu. Penelitian ini penting karena menunjukkan potensi bahaya yang harus dipahami banyak pihak sebelum SAM2 digunakan dalam aplikasi penting seperti kendaraan otonom atau sistem keamanan.
Baca juga artikel tentang: Dari Kutub ke Kota: Perjalanan Udara Dingin Lewat Polar Vortex
Apa Itu Serangan Adversarial?
Bayangkan Anda memiliki kacamata yang bisa membaca gambar dan memberi tahu Anda apa yang ada di dalamnya. Tiba tiba ada seseorang yang menambahkan bintik bintik kecil ke gambar itu. Bagi mata Anda, tidak ada yang berubah. Namun bagi kacamata canggih tersebut, bintik kecil itu bisa membuatnya menyimpulkan bahwa seekor kucing adalah anjing atau bahkan tidak ada apa apa dalam gambar tersebut.
Itulah serangan adversarial. Ini adalah trik halus yang memanfaatkan kelemahan model AI agar memberikan jawaban yang salah.
Beberapa ciri serangan adversarial:
- Tidak terlihat mencolok bagi manusia
- Mengacaukan prediksi model secara drastis
- Bisa dimasukkan ke dalam gambar statis maupun video
Dalam dunia nyata, serangan ini bisa berbahaya. Misalnya, mobil tanpa sopir bisa salah membaca tanda lalu lintas. Sistem keamanan bisa gagal mendeteksi penyusup. Atau algoritma medis bisa salah dalam membaca hasil rontgen.
Karena itu, mengetahui apakah model seperti SAM atau SAM2 rentan terhadap serangan semacam ini menjadi sangat penting.
Celah pada SAM2 yang Ditemukan Peneliti
SAM2 dikembangkan sebagai versi yang lebih kuat dari SAM. Ia mampu menangani video, memahami perubahan objek dari frame ke frame, dan memberikan prediksi yang lebih akurat. Tetapi penelitian terbaru menunjukkan bahwa peningkatan kemampuan tidak selalu berarti peningkatan keamanan.
Para peneliti menemukan bahwa:
- Serangan yang bekerja pada SAM tidak otomatis berhasil pada SAM2.
Artinya, kedua model meskipun terkait, memiliki cara kerja internal yang cukup berbeda. - SAM2 memiliki dua titik kelemahan baru, yaitu
- directional guidance atau cara model mengikuti perintah pengguna
- semantic entanglement, yaitu bagaimana model mengaitkan arti suatu objek di beberapa frame video
Dengan memahami dua titik lemah ini, peneliti mencoba membangun serangan yang tidak hanya bekerja pada satu jenis perintah, tetapi pada berbagai perintah berbeda sekaligus.

UAP SAM2: Serangan Baru yang Lebih Berbahaya
Peneliti memperkenalkan metode serangan baru bernama UAP SAM2, singkatan dari Universal Adversarial Perturbation for SAM2.
Apa yang membuat serangan ini menakutkan?
1. Universal
Tidak perlu dibuat khusus untuk setiap gambar. Satu pola serangan bisa digunakan untuk berbagai gambar dan video.
2. Cross-prompt
Tetap bekerja meskipun pengguna memberikan perintah yang berbeda beda, misalnya:
- “tandai mobil itu”
- “pilih objek di kanan”
- “identifikasi manusia di frame ini”
Model tetap akan keliru walaupun perintahnya diganti.
3. Dual Semantic Deviation
Teknik ini mengacaukan makna objek di dalam satu frame sekaligus antara beberapa frame dalam video.
Akibatnya, model bisa kehilangan pemahaman konsisten tentang objek yang sama dari waktu ke waktu.
Dengan kombinasi beberapa teknik tersebut, serangan UAP SAM2 mampu membuat SAM2 salah besar dalam membaca gambar dan video, sekalipun perubahan visualnya hampir tidak terlihat oleh manusia.
Apa Dampaknya dalam Kehidupan Nyata?
Mungkin Anda bertanya, “Ini kan hanya penelitian. Mengapa kita harus peduli?”
Jawabannya sederhana: model seperti SAM2 cepat atau lambat akan dipakai dalam situasi nyata.
Berikut beberapa contohnya:
1. Kendaraan tanpa sopir
Mobil bergantung pada kemampuan AI membaca objek sekitar. Jika serangan adversarial diterapkan pada kamera mobil, AI dapat salah mendeteksi pejalan kaki atau rambu lalu lintas.
2. Sistem keamanan berbasis kamera
AI mungkin gagal mengenali penyusup atau objek berbahaya jika gambarnya dimanipulasi.
3. Robot industri
Kesalahan dalam segmentasi bisa membuat robot salah memegang objek atau melakukan tugas yang berbahaya.
4. Aplikasi kesehatan
Sistem analisis video dalam operasi atau pencitraan medis dapat memberikan hasil yang salah.
Karena itu, memahami celah sejak dini memberi kesempatan bagi para pengembang untuk membuat SAM2 lebih kuat sebelum digunakan secara luas.
Mengapa Penelitian Ini Penting?
Penelitian ini bukan hanya menunjukkan kelemahan SAM2, tetapi juga memberikan langkah awal menuju pengembangan AI yang lebih aman.
Beberapa kontribusi pentingnya:
- Mengungkap bahwa peningkatan kinerja model tidak berarti peningkatan keamanan
- Memberikan contoh konkret serangan yang bisa diuji oleh komunitas riset
- Membuka jalan bagi sistem pertahanan baru khusus untuk model video
- Memberikan peringatan dini bagi industri yang ingin mengadopsi SAM2
Penelitian seperti ini membantu memastikan bahwa teknologi AI tidak hanya cerdas, tetapi juga dapat dipercaya dan aman.
Kita hidup di era di mana AI semakin pintar dan semakin hadir dalam aktivitas sehari hari. Namun semakin besar kemampuan teknologi, semakin besar pula tanggung jawab kita untuk memastikan bahwa AI tidak mudah dimanipulasi atau disalahgunakan.
Penelitian tentang serangan adversarial pada SAM2 menunjukkan bahwa bahkan model AI paling unggul pun punya titik lemah. Dengan mengetahui kelemahannya sejak dini, kita bisa membangun sistem yang lebih aman, lebih kuat, dan lebih responsif terhadap ancaman di masa depan.
AI bukan musuh kita. Tetapi memahami cara AI bisa diserang adalah langkah penting untuk menjadikan teknologi ini alat yang bisa kita andalkan dengan aman.
Baca juga artikel tentang: Udara Sehat, Hewan Bahagia: Mengapa Air Purifier Penting untuk Pecinta Hewan
REFERENSI:
Zhou, Ziqi dkk. 2025. Vanish into thin air: Cross-prompt universal adversarial attacks for sam2. arXiv preprint arXiv:2510.24195.

