Dalam dekade terakhir, kecerdasan buatan (Artificial Intelligence/AI) telah merevolusi cara dokter mendiagnosis penyakit dan merawat pasien. Dari membaca hasil rontgen paru-paru, memprediksi risiko serangan jantung, hingga menyarankan pengobatan berdasarkan DNA pasien, AI kini menjadi asisten digital paling canggih dalam dunia medis.
Berbekal machine learning dan neural networks, AI mampu menganalisis jutaan data medis dengan kecepatan yang jauh melampaui kemampuan manusia. Akurasinya bahkan menyaingi dokter spesialis di beberapa bidang seperti radiologi, kardiologi, dan dermatologi.
Namun, di balik potensi luar biasa ini, para ilmuwan mengingatkan bahwa AI tidak sepenuhnya netral. Teknologi yang diciptakan manusia, belajar dari data manusia, bisa mewarisi ketimpangan manusia. Itulah fokus utama riset terbaru yang diterbitkan di PLOS Digital Health (2025), menelusuri bagaimana bias dan ketidakadilan algoritma dapat memengaruhi keadilan layanan kesehatan.
AI bekerja dengan belajar dari data. Sebuah sistem diagnostik kanker, misalnya, dilatih dengan ribuan gambar hasil biopsi pasien. Masalah muncul ketika data yang digunakan tidak mewakili seluruh populasi manusia.
Contoh konkret:
- Mayoritas dataset radiologi dunia berasal dari pasien kulit putih di Eropa dan Amerika Utara.
- Algoritma yang mendeteksi kelainan jantung sering dilatih pada data pria dewasa, bukan wanita atau lansia.
- Sistem pengenalan kulit bekerja lebih baik pada kulit terang daripada kulit gelap.
Akibatnya, AI yang tampak “cerdas” di satu wilayah bisa gagal di wilayah lain. Inilah yang disebut data bias, yang bisa berkembang menjadi algorithmic bias, ketika pola diskriminatif itu diperkuat oleh perhitungan mesin.
Baca juga artikel tentang: Kombinasi Superfood dan Obat: Potensi dan Tantangannya dalam Dunia Kesehatan
Metodologi Kajian: Menyisir Bukti dari Berbagai Spesialisasi
Penelitian Chinta dan timnya melakukan tinjauan sistematis (systematic survey) terhadap ratusan publikasi yang membahas penerapan AI di berbagai bidang medis:
- Kardiologi (diagnosis jantung),
- Oftalmologi (penyakit mata),
- Dermatologi,
- Darurat medis, dan
- Prediksi hasil pengobatan.
Mereka menemukan bahwa hampir semua model AI, meskipun efektif secara teknis, memiliki potensi ketidakadilan (fairness gap) antara kelompok pasien dengan latar belakang sosial, etnis, atau ekonomi yang berbeda.
Contoh temuan:
- Sistem deteksi serangan jantung menunjukkan akurasi 15% lebih rendah pada wanita dibanding pria.
- Model pengenalan kanker kulit lebih sering salah diagnosis pada pasien berkulit gelap.
- Algoritma prediksi risiko gagal ginjal menilai pasien Afrika-Amerika lebih “sehat” daripada kenyataannya, karena parameter yang digunakan mengandung bias rasial historis.
Analisis Ilmiah: Menjelaskan Akar Ketimpangan
Peneliti mengklasifikasikan penyebab utama bias menjadi tiga lapisan ilmiah:
- Bias Data (Data Bias)
Dataset tidak mencerminkan keragaman dunia nyata. AI yang “dilatih” hanya dengan sebagian populasi tidak akan memahami karakteristik kelompok lain. - Bias Algoritmik (Algorithmic Bias)
Terjadi ketika desain model atau fungsi matematis memperkuat pola yang tidak seimbang. Misalnya, weighting system yang lebih memprioritaskan variabel tertentu (seperti usia atau jenis kelamin) tanpa penyesuaian etis. - Bias Struktural (Systemic Bias)
Berasal dari ketimpangan sosial yang sudah ada. Misalnya, akses kesehatan yang tidak merata, data ekonomi yang dikaitkan dengan tingkat risiko, atau kesenjangan dalam dokumentasi medis antar rumah sakit.
Hasilnya adalah AI yang bekerja baik untuk sebagian orang, tapi keliru bagi sebagian lainnya.
Strategi Mitigasi: Menuju AI yang Lebih Adil
Penelitian ini tidak berhenti pada kritik, tetapi menawarkan pendekatan ilmiah untuk membangun “fair AI” dalam kesehatan.
a. Diversifikasi Dataset
Peningkatan keadilan harus dimulai dari sumbernya, data. Para ilmuwan menekankan perlunya representasi global dalam data medis: mengumpulkan data pasien dari berbagai ras, umur, dan kondisi sosial.
Inisiatif seperti Global Health Data Network kini didorong untuk membuat database internasional inklusif guna memperkaya pelatihan model AI.
b. Algoritma Sadar Keadilan (Fairness-Aware Algorithms)
Model modern kini dikembangkan dengan fungsi pengoreksi bias internal, yang dapat memeriksa distribusi kesalahan di antara kelompok pasien berbeda. Beberapa sistem bahkan dapat mengatur ulang bobot variabel secara otomatis untuk menyeimbangkan hasil prediksi.
c. Transparansi dan Audit Etis
Riset ini juga menekankan pentingnya AI yang dapat dijelaskan (Explainable AI / XAI) di mana alasan di balik keputusan algoritma harus bisa dipahami oleh dokter dan pasien. Selain itu, diperlukan audit independen untuk memastikan sistem AI tidak menyembunyikan bias tersembunyi.
Implikasi Sains dan Sosial
Temuan ini memiliki konsekuensi besar bagi dunia medis modern: AI bukan hanya alat teknis, tapi juga aktor etis baru dalam ekosistem kesehatan. Setiap keputusan algoritma kini punya dampak sosial, bisa menentukan siapa yang mendapat pengobatan lebih cepat, siapa yang diabaikan, dan siapa yang tertinggal.
Riset ini juga mendorong kolaborasi lintas disiplin:
- Ilmuwan data untuk merancang sistem adil,
- Dokter dan perawat untuk menilai dampak klinisnya,
- Etikus dan pembuat kebijakan untuk menetapkan aturan transparansi,
- serta pasien sebagai pihak yang harus dilibatkan dalam evaluasi manfaat teknologi.
Dengan cara ini, AI tidak hanya meningkatkan efisiensi, tetapi juga memperluas keadilan medis secara global.
“Kecerdasan buatan dalam kesehatan hanya akan secerdas dan seadil manusia yang membangunnya.”
AI telah membuka bab baru dalam sains medis, menghadirkan kecepatan, akurasi, dan kemampuan analitik luar biasa. Namun tanpa kesadaran etis, teknologi ini bisa memperkuat ketidakadilan yang sudah ada.
Maka, masa depan AI bukan hanya tentang kode dan algoritma, tetapi juga tentang nilai kemanusiaan yang tertanam di dalamnya. Membangun sistem AI yang transparan, beragam, dan inklusif bukanlah pilihan, tetapi kewajiban ilmiah dan moral.
Baca juga artikel tentang: Infiltrasi Mikroplastik dalam Makanan: Disrupsi Sistem Farmakologi dan Kesehatan Manusia
REFERENSI:
Chinta, Sribala Vidyadhari dkk. 2025. AI-driven Healthcare: Fairness in AI Healthcare – A Survey. PLOS Digital Health, 4(5), 2025.

