Prinsip Asimolar: Sebuah Prinsip (Panduan) dalam Pengembangan Kecerdasan Buatan

Dalam pengembangan Kecerdasan Buatan (Artificial Intelligence, AI) harus dibuat sebuah pedoman atau pemandu agar tidak disalahgunakan. Hal ini untuk mencegah penyalahgunaan terhadap kemampuan yang dimilki oleh teknologi Kecerdasan Buatan yang sangat luar biasa dalam belajar bahkan mampu belajar lebih baik daripada manusia yang professional sekalipun. Kecerdasan Buatan itu sendiri didefinisikan sebagai kecerdasan entitas (hasil pikiran manusia) yang bersifat ilmiah[1].

Kondisi saat pelaksanaan konfrensi “Asimolar AI Principles” 2015 di Puerto Rico (Sumber : https://futureoflife.org/bai-2017)

Pada bulan Januari 2015, telah diadakan sebuah konferensi untuk membahas Kecerdasan Buatan di Puerto Rico. Dalam konfrensi tersebut dihadiri oleh berbagai kalangan kelompok peneliti Kecerdasan Buatan dari akademisi dan industri, pemimpin pemikir di bidang ekonomi, hukum, etika, dan filsafat selama lima hari yang kemudian didedikasikan untuk bagaimana memanfaatkan Kecerdasan Buatan agar dapat berguna sepenuhnya bagi umat manusia. Dalam acara tersebut juga di hadiri oleh Elon Musk yang merupakan CEO dari SpaceX dan Tesla Inc[2].

Kemudian dengan mengacu pada Prinsip Asimolar untuk Kecerdasan Buatan pada 2015 di Puerto Rico dan juga hasil dari konferensi BAI 2017[3]Future of Life Institute mengeluarkan Asilomar AI Principles (Prinsip Asimolar untuk Kecerdasan Buatan). Dalam Prinsip (pedoman) tersebut terdapat 23 poin penting yang ditetapkan oleh para ahli Kecerdasan Buatan, Robotika, dan pemimpin teknologi untuk memastikan pengembangan Kecerdasan Buatan adalah aman, bukan untuk disalahgunakan. Prinsip-prinsip tersebut telah ditandatangani oleh lebih dari 2.000 orang, termasuk 844 peneliti dibidang AI dan robotika. Dalam daftar tersebut mencakup Elon Musk CEO dari SpaceX dan Tesla Inc, Demis Hassabis pendiri Google DeepMind, Stephen Hawking ahli Kosmologi, dan pemikir terkemuka lainnya[4].

Elon Musk sedang berdiskusi panel dalam acara konfrensi BENEFICIAL AI 2017 (Sumber : https://futureoflife.org/bai-2017/)

Prinsip Asimolar tersebut berisi 23 poin, dibagi atas 3 bagian penting yang mencakup masalah penelitian (Research Issues) berisi 5 poin, etika dan nilai (Ethics and Values) berisi 13 poin, dan isu jangka panjang (Longer-term Issues) berisi 5 point. Adapun 23 poin tersebut tertera pada tabel berikut ini[5]:

  • Masalah Penelitian (Research Issues)
No  Hasil Penjelasan
1 Tujuan Penelitian (Research Goal) Tujuan penelitian Kecerdasan Buatan (AI) harus diarahkan agar tidak dibuat untuk tujuan intelijen (militer), tetapi kecerdasan yang dapat menguntungkan.
2 Pendanaan Penelitian (Research Funding) Investasi dibidang Kecerdasan Buatan, pendanaan harus digunakan untuk penelitian guna memastikan penggunaan yang bermanfaat, termasuk pertanyaan-pertanyaan dalam ilmu komputer, ekonomi, hukum, etika, dan studi sosial, seperti:

  • Bagaimana kita bisa membuat sistem AI dimasa depan yang sangat kuat, sehingga mereka melakukan apa yang kita inginkan tanpa dirusak atau dibobol?
  • Bagaimana kita dapat tumbuh makmur dan berdampingan melalui otomatisasi sambil mempertahankan sumber daya manusia dan tujuannya?
  • Bagaimana kita dapat memperbarui sistem hukum kita untuk menjadi lebih adil dan efisien, untuk menyelaraskan dengan hukum pada sistem  AI, dan untuk mengelola risiko yang terkait dengan AI?
  • Nilai set apa yang harus selaras dengan AI, dan apa status hukum dan etika harus dimilikinya?
3 Link pada Kebijakan-Ilmu (Science-Policy Link) Harus ada pertukaran konstruktif dan sehat antara peneliti AI dan pembuat kebijakan.
4 Budaya Penelitian (Research Culture) Sebuah budaya kerja sama, kepercayaan, dan transparansi harus dipupuk antara peneliti dan pengembang AI.
5 Penghindaran terhadap berpihak pada suatu Ras (Race Avoidance) Tim mengembangkan sistem AI harus secara aktif bekerja sama untuk menghindari keuntungan sepihak (pengabaian/mengurangi) pada standar keselamatan.
  • Etika dan Nilai (Ethics and Values)
No Hasil Penjelasan
6 Keamanan (Safety) Sistem AI harus aman dan terjamin sepanjang waktu operasionalnya dan dianalisis (dibuktikan) sehingga mana yang masih berlaku dan masih layak.
7 Transparansi saat terjadi Kesalahan (Failure Transparency) Jika sistem AI menyebabkan kerugian, itu harus dianalisa untuk memastikan mengapa hal tersebut bisa terjadi.
8  Transparansi Yudisial (Judicial Transparency) Setiap keterlibatan sistem otonom di peradilan dalam pengambilan keputusan harus memberikan penjelasan yang memuaskan dapat diaudit oleh otoritas manusia yang kompeten pada bidangnya.
9  Tanggung Jawab (Responsibility) Desainer dan pembuat sistem AI yang canggih memegang kepentingan dalam implikasi moral dari penggunaan, penyalahgunaan, dan tindakan, dengan tanggung jawab dan kesempatan untuk membentuk implikasi tersebut.
10 Penyelarasan pada Nilai (Value Alignment) Sistem AI Sangat otonom harus dirancang sehingga tujuan dan perilaku mereka dapat meyakinkan untuk menyelaraskan dengan nilai-nilai manusia pada seluruh operasi yang mereka mereka lakukan.
11  Nilai-nilai Kemanusiaan (Human Values) Sistem AI harus dirancang dan dioperasikan sehingga kompatibel dengan cita-cita martabat manusia, hak-hak, kebebasan, dan keragaman budaya.
12 Privasi Pribadi (Personal Privacy) Manusia harus memiliki hak untuk mengakses, mengelola, dan mengendalikan data yang mereka hasilkan, diberi kekuasaan terhadap sistem AI untuk menganalisis dan memanfaatkan data tersebut.
13  Liberty dan Privasi (Liberty and Privacy) Penerapan AI pada data pribadi tidak harus masuk akal dalam membatasi kebebasan manusia secara nyata atau dapat dirasakan.
14 Manfaat Bersama (Shared Benefit) Teknologi AI harus menguntungkan dan memberdayakan kepada manusia sebanyak mungkin.
15  Kemakmuran Bersama (Shared Prosperity) Kemakmuran secara ekonomi yang diciptakan oleh AI harus dibagi secara luas, untuk menguntungkan semua umat manusia.
16 Kontrol Manusia (Human Control) Manusia harus memilih untuk bagaimana dan apakah akan mendelegasikan keputusan untuk sistem AI dalam mencapai tujuan manusia yang dipilih.
17  Non-subversi (wewenang) (Non-subversion) Kemampuan yang diberikan pada sistem AI yang sangat maju (update) harus dihormati dan ditingkatkan, bukan untuk menumbangkan proses sosial dan kemasyarakatan dimana ketergantungan pada kesehatan masyarakat.
18 Perlombaan Senjata menggunakan AI (AI Arms Race) Sebuah perlombaan senjata menggunakan senjata otonom yang mematikan harus dihindari.
  • Isu Jangka Panjang (Longer-term Issues)

No Hasil Penjelasan
19 Perhatian pada Kemampuan (Capability Caution) Karena tidak ada konsensus, kita harus menghindari asumsi yang kuat tentang batas yang tidak terbatas pada kemampuan AI dimasa depan.
20 Penting (Importance) Kelanjutan AI bisa mewakili perubahan besar dalam sejarah kehidupan umat manusia di Bumi sehingga harus direncanakan dan dikelola dengan hati-hati yang sepadan sumber dayanya.
21 Resiko (Risks) Resiko yang ditimbulkan oleh sistem AI, terutama risiko bencana atau eksistensial, harus tunduk kepada upaya perencanaan dan mitigasi sepadan dengan dampak yang diharapkan.
22 Meningkatkan Kemampuan secara Rekursif (Recursive Self-Improvement) Sistem AI yang dirancang untuk meningkatkan dirinya sendiri secara rekursif atau mereplikasi diri dengan cara yang dapat menyebabkan peningkatan kemampuan yang pesat atau kuantitas harus dikenakan tindakan keamanan dan kontrol yang ketat.
23 Kebaikan Umum (Common Good) Superintelligence (super cerdas) hanya dikembangkan dalam pelayanan cita-cita etis bersama secara luas dan untuk kepentingan seluruh umat manusia bukan satu negara atau organisasi saja.

Berdasarkan pada 23 poin dari Psinsip Asimolar untuk pengembangan Kecerdasan Buatan tersebut diharapkan kita siap untuk menerima Kecerdasan Buatan dan bahkan hidup berdampingan dengan Kecerdasan Buatan dimasa depan. Sehingga dapat meminimalisasi resiko-resiko yang ditimbulkan oleh hal-hal yang tidak kita inginkan, karena sistem cerdas akan semakin cerdas dimasa depan. Diharapkan manusia dapat hidup secara normal dan berdampingan dengan mesin cerdas (Robot) atau sistem cerdas yang mana Sistem Cerdas tersebut tidak dapat mengugguli atau menguasai manusia seperti pada film terminator.

 

Berikut video konfrensi pada 6-8 Januari 2017 dalam pembahasan pemanfaatan Kecerdasan Buatan,

 

Refrensi:

  1. Wikipedia Indonesia, Kecerdasan buatan (https://id.wikipedia.org/wiki/Kecerdasan_buatan) diakses pada tanggal 8 Desember 2017.
  2. Future of Life, BENEFICIAL AI 2017 (https://futureoflife.org/bai-2017) diakses pada tanggal 8 Desember 2017.
  3. _________, A Principled AI Discussion in Asilomar (https://futureoflife.org/2017/01/17/principled-ai-discussion-asilomar/) diakses pada tanggal 8 Desember 2017.
  4. Crowe, Steve. 2017. “Asilomar AI Principles: 23 Tips for Making AI Safe“. Robotics Trends, 3 Februari 2017 (http://www.roboticstrends.com/article/asilomar_ai_principles_23_rules_for_making_ai_safe/Artificial_Intelligence) diakses pada tanggal 8 Desember 2017.
  5. Future of Life, ASILOMAR AI PRINCIPLES (https://futureoflife.org/ai-principles/) diakses pada tanggal 8 Desember 2017.
Nilai Artikel Ini
Artikel Berhubungan:

Sponsor Warstek.com:
Wayan Dadang

Wayan Dadang

Mahasiswa S1 Teknik Elektro Universitas Sriwijaya, menekuni Kecerdasan Buatan, Sistem Kontrol, dan Robotika. Mencintai kegiatan membaca Paper Sains, Belajar, Menulis, dan Riset.

Yuk Ajukan Pertanyaaan atau Komentar