Menjembatani Teknologi dan Kemanusiaan: Etika Baru dalam Terapi Digital

Bayangkan kamu sedang merasa cemas atau tertekan, dan alih-alih menunggu antrean panjang di klinik, kamu membuka aplikasi di ponselmu. Sebuah […]

Bayangkan kamu sedang merasa cemas atau tertekan, dan alih-alih menunggu antrean panjang di klinik, kamu membuka aplikasi di ponselmu. Sebuah chatbot ramah menyapa:

“Hai, aku di sini untuk mendengarkan. Apa yang membuatmu merasa seperti ini hari ini?”

Kecerdasan buatan percakapan atau conversational AI (CAI) kini mulai menempati ruang yang dulunya hanya diisi oleh terapis manusia. Dari aplikasi seperti Woebot, Wysa, hingga Youper, teknologi ini menawarkan dukungan emosional instan, kapan pun dan di mana pun. Namun di balik kemudahan dan empatinya yang terasa manusiawi, muncul pertanyaan besar: apakah etis mempercayakan kesehatan mental kita kepada mesin?

Sebuah tinjauan besar yang diterbitkan di JMIR Mental Health tahun 2025 oleh Mehrdad Rahsepar Meadi dan timnya mencoba menjawab pertanyaan itu. Mereka menelaah lebih dari 100 penelitian untuk memahami tantangan etis yang muncul ketika AI berbicara seperti manusia dan bahkan “menjadi” terapis.

Baca juga artikel tentang: Dari Tanaman ke Terapi: Perjalanan Ibogaine dalam Dunia Kesehatan Mental

Gelombang Baru Terapi Digital

Pandemi COVID-19 mempercepat gelombang besar digitalisasi layanan kesehatan mental. Aplikasi konseling daring, teletherapy, dan chatbot psikolog kini bukan hal asing.
CAI menjadi bentuk paling menarik dari tren ini karena kemampuannya untuk berinteraksi secara alami dengan bahasa manusia, bahkan mampu “merespons emosi” penggunanya.

Tujuan awalnya baik, meningkatkan akses terapi bagi jutaan orang yang tidak punya kesempatan bertemu psikolog.
Namun, semakin canggih teknologi ini, semakin tipis pula batas antara alat bantu psikologis dan “pengganti” manusia sungguhan.

Apa yang Ditemukan Penelitian Ini

Para peneliti meninjau studi dari berbagai basis data besar seperti PubMed, Scopus, dan APA PsycINFO. Dari 101 artikel yang mereka telaah, muncul sepuluh tema utama yang berulang, mulai dari keamanan hingga keadilan sosial. Berikut ringkasan temuan utamanya:

  1. Keamanan dan bahaya (51,5%)
    Kekhawatiran utama adalah: bagaimana jika AI memberi nasihat yang salah atau berisiko membahayakan pengguna? Tidak seperti manusia, chatbot tidak bisa memahami nuansa emosi atau situasi kompleks seseorang secara utuh.
    Misalnya, bagaimana jika seseorang mengungkapkan keinginan bunuh diri, apakah AI mampu mendeteksi tanda bahaya dan merespons dengan tepat?
  2. Kepercayaan dan algoritma “kotak hitam” (22,8%)
    Banyak pengguna tidak tahu bagaimana AI membuat keputusan atau menyusun respons. Apakah AI benar-benar “memahami” perasaan mereka, atau hanya memanipulasi pola bahasa?
  3. Tanggung jawab dan akuntabilitas (30,7%)
    Jika terjadi kesalahan atau dampak negatif, siapa yang harus bertanggung jawab, pengembang aplikasi, lembaga medis, atau AI itu sendiri?
  4. Empati dan sisi manusia (28,7%)
    Meskipun chatbot dapat meniru empati, pengguna sering kali merasakan kekosongan emosional. Ada perbedaan besar antara “dipahami oleh algoritma” dan “didengarkan oleh manusia.”
  5. Keadilan dan kesetaraan digital (40,6%)
    Tidak semua orang memiliki kemampuan digital yang sama. Kesenjangan ini bisa membuat sebagian populasi tertinggal, terutama mereka yang lanjut usia atau tinggal di daerah tanpa akses internet stabil.
  6. Privasi dan kerahasiaan (61,4%)
    Ini isu yang paling sering muncul. Data emosi, percakapan pribadi, hingga catatan kesehatan mental disimpan di server, sering kali tanpa pengguna benar-benar tahu bagaimana data itu digunakan. Di sinilah bahaya terbesar: informasi paling intim seseorang bisa disalahgunakan oleh perusahaan atau bahkan diretas.
  7. Autonomi dan kendali diri (11,9%)
    Apakah pengguna masih memiliki kendali penuh atas proses terapi ketika AI ikut campur dalam menentukan apa yang “baik” untuk mereka?
  8. Efektivitas (37,6%)
    Apakah CAI benar-benar membantu menyembuhkan atau hanya memberikan “efek placebo digital”? Beberapa studi menunjukkan manfaat jangka pendek, tapi belum ada bukti kuat soal efek jangka panjangnya.
  9. Dampak pada tenaga kesehatan mental (15,8%)
    Apakah AI akan menggantikan psikolog? Ataukah justru menjadi mitra mereka di masa depan?
  10. Antropomorfisasi, menganggap AI seperti manusia (23,8%)
    Banyak pengguna mulai memperlakukan chatbot seolah-olah itu teman sejati. Hal ini menimbulkan dilema baru: bagaimana jika ketergantungan emosional terhadap AI malah memperburuk kondisi mental seseorang?

Di Mana Garis Etisnya?

Penelitian ini tidak hanya mencatat masalah, tapi juga menyoroti celah besar dalam regulasi dan tanggung jawab etika.
Saat ini, belum ada standar global yang mengatur penggunaan AI dalam terapi mental.

Para peneliti menekankan bahwa teknologi ini tidak boleh menggantikan hubungan manusia, melainkan menjadi pelengkap profesional kesehatan mental.
CAI bisa menjadi “alat bantu” untuk memperluas jangkauan layanan, tapi tetap membutuhkan pengawasan manusia yang ahli.

Menuju AI yang Etis dan Empatik

Untuk membuat CAI benar-benar bermanfaat dan aman, para ahli menekankan perlunya pedoman etika global.
Beberapa poin penting yang disarankan antara lain:

  • Transparansi algoritma: pengguna harus tahu bagaimana AI bekerja dan mengambil keputusan.
  • Privasi ketat: data pribadi tidak boleh digunakan tanpa persetujuan eksplisit.
  • Keamanan emosi: AI harus dirancang agar tidak memperkuat pikiran negatif atau memperburuk kondisi mental.
  • Supervisi manusia: chatbot harus memiliki jalur eskalasi ke profesional manusia jika mendeteksi krisis serius.
  • Keadilan akses: pastikan teknologi ini inklusif, tidak hanya untuk mereka yang “melek digital.”

Harapan dan Jalan ke Depan

CAI adalah gambaran masa depan di mana teknologi dan psikologi berpadu. Ia menjanjikan masa depan di mana setiap orang bisa mendapatkan dukungan emosional dalam genggaman tangan.
Namun, seperti semua inovasi besar, ia datang dengan tanggung jawab yang sama besarnya.

Kita perlu memastikan bahwa kemajuan teknologi tidak mengorbankan nilai kemanusiaan: empati, kepercayaan, dan kehangatan. Karena pada akhirnya, yang menyembuhkan bukan hanya kata-kata, tapi siapa yang mengucapkannya.

Penelitian ini mengingatkan kita bahwa kecerdasan buatan bukan sekadar alat, tetapi cermin dari nilai-nilai manusia yang menciptakannya. Jika kita mampu membangun AI yang etis, transparan, dan empatik, maka teknologi bisa menjadi sekutu sejati dalam perjuangan menjaga kesehatan mental, bukan ancamannya.

Baca juga artikel tentang: Perbedaan Respons Stres antara Pria dan Wanita: Temuan yang Bisa Mengubah Pengobatan Gangguan Mental

REFERENSI:

Meadi, Mehrdad Rahsepar dkk. 2025. Exploring the ethical challenges of conversational AI in mental health care: scoping review. JMIR mental health 12, e60432.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top