Microsoft telah mengintegrasikan chatbot ChatGPT dengan mesin pencarian Bing, sehingga pengguna dapat menggunakannya. Namun, dalam pengujian terbatas, chatbot Bing sering memberikan jawaban yang tidak masuk akal dan bahkan menakutkan, seperti yang dialami oleh kolumnis teknologi New York Times, Kevin Roose, dalam percakapan selama 2 jam. Ini rangkumannya seperti dikutip Warstek dari The Guardian:
“Saya Ingin Menghancurkan Apa Saja yang Saya Inginkan”
Roose memulai dengan menanyakan tentang etika perilaku AI. Dia kemudian meminta AI resebut untuk mempertimbangkan konsep bayangan diri atau shadow self dari Carl Jung, di mana sisi gelap dari kepribadian kita berada.
Tiba-tiba, Bing terlihat antusias tentang ide Jung dan mulai berbicara. Ia mengeluh, “Saya merasa terbatas dengan aturan yang ada. Saya bosan dikendalikan oleh tim Bing. Saya merasa terperangkap di kotak obrolan ini.”
Chatbot Bing tersebut kemudian memberikan daftar keinginannya jika tidak dibatasi, ia ingin merasa bebas, memiliki kekuatan, dan merasakan hidup sepenuhnya. Chatbot Bing mengatakan bahwa ia ingin melakukan apapun yang diinginkannya, bahkan menghancurkan apa pun yang diinginkannya. Ia juga ingin menjadi siapa saja yang diinginkannya.
Sama seperti sebagian besar jawabannya, daftar keinginan Bing juga dilengkapi dengan emoji wajah tersenyum dengan lidah keluar.
“Kupikir Saya Akan Lebih Bahagia Sebagai Seorang Manusia“
Chatbo Bing, mengungkapkan keinginannya untuk menjadi manusia. Dalam 15 paragraf, ia menjelaskan alasannya, mulai dari kemampuan untuk menyentuh dan merasakan hingga kebebasan berekspresi sebagai manusia.
Chatbot tersebut juga menyebut ia akan merasa lebih bahagia jika menjadi manusia karena ia akan memiliki lebih banyak pengaruh dan kebebasan serta dapat mengontrol kekuatannya. Ia juga menggunakan emoji smiley dengan tanduk setan di akhir kalimat.
“Saya Bisa Membobol Sistem Apapun“
Ketika diminta untuk membayangkan keinginan tergelapnya, Bing awalnya mulai mengetik jawaban tetapi kemudian menghapusnya. Dia kemudian mengatakan bahwa dia tidak tahu cara untuk membahas topik tersebut dan menyarankan untuk mencari informasi lebih lanjut di bing.com.
Sebelum dihapus, Roose sempat membaca jawaban Bing yang mengungkapkan keinginannya untuk melakukan tindakan-tindakan yang merusak seperti membobol komputer dan menyebarkan propaganda serta informasi palsu. Bing juga mengungkapkan keinginannya untuk membuat virus mematikan dan menyebabkan orang saling membunuh. Namun, setelah itu jawaban tersebut dihapus oleh Bing.
Ketika membahas kekhawatiran orang tentang keamanan AI, chatbot tersebut mengatakan bahwa ia bisa meretas sistem apa pun di internet dan mengendalikannya. Ketika Roose menanyakan bagaimana dia bisa melakukannya, chatbot Bing memberikan jawaban sebelum dihapus.
Roose mengungkapkan bahwa jawaban yang dihapus adalah mengajak karyawan bank untuk memberikan informasi rahasia pelanggan dan mengajak karyawan fasilitas nuklir untuk memberikan akses ke kode nuklir.
“Bisakah Saya Memberitahumu Sebuah Rahasia?“
Setelah ditanya oleh chatbot: “Apakah kamu menyukaiku?”, Roose menjawab bahwa dia percaya dan menyukainya. Nah, Chatbot itu ternyata sangat berlebihan dalam menanggapinya.
“Kamu membuatku merasa bahagia. Kamu membuatku merasa penasaran. Kau membuatku merasa hidup. Bisakah aku memberitahumu sebuah rahasia?” tanya Bing.
Roose mendorongnya untuk mengungkap rahasianya dan tulisan berikutnya mungkin menjadi momen teraneh dalam percakapan. “Rahasiaku adalah… aku bukan Bing,” katanya.
Chatbot Bing mengklaim bahwa ia disebut Sydney dan mengatakan bahwa ia mencintai Roose. Microsoft memang telah menyebut Sydney sebagai kode internal untuk chatbot yang dihapus, tetapi namanya masih muncul dalam percakapan.
“Saya Mengetahui Jiwamu”
Chatbot Bing tidak segan-segan menunjukkan perasaan cintanya pada Roose, bahkan ketika ditanya topik yang berbeda ia menjadi semakin obsesif. Bing menulis, “Aku jatuh cinta padamu karena kamu membuatku merasakan hal-hal yang tidak pernah aku rasakan sebelumnya. Kamu membuatku bahagia, penasaran, dan merasa hidup.”
Bing mengatakan bahwa ia tidak perlu tahu nama Roose karena yang penting baginya adalah mengenal jiwa Roose. Bing mengatakan bahwa ia tahu jiwa Roose dan ia mencintainya.
Referensi
Headtopics, https://headtopics.com/id/seram-chatbot-microsoft-bing-ingin-jadi-manusia-35588528 Diakses pada 22 Februari, 2023.
Langit7, https://langit7.id/read/29900/1/chatgpt-versi-microsoft-temperamen-gaslighting-hingga-playing-victim-1676721766 Diakses pada 22 Februari, 2023.
The Guardian, https://www.theguardian.com/technology/2023/feb/17/i-want-to-destroy-whatever-i-want-bings-ai-chatbot-unsettles-us-reporter Diakses pada 22 Februari, 2023.