Developerweb | Kecerdasan buataan, atau AI, diciptakan untuk mempermudah berbagai jenis pekerjaan. Walau bagaimanapun, peneliti dari Massachusetts Institute of Technology (MIT) telah mengeluarkan peringatan baru-baru ini bahwa kecerdasan buatan dapat berbalik mengancam manusia melalui kecerdasan buatan.
Ini karena kecerdasan buatan memiliki kemampuan untuk belajar dan melakukan penipuan atau upaya sistematis untuk memberi orang keyakinan palsu untuk mencapai hasil yang berbeda dari apa yang mereka katakan. Sebuah penelitian yang dilakukan oleh para peneliti MIT menemukan bahwa sistem kecerdasan buatan seperti Large Language Model (LLM) dan AI lainnya dapat belajar metode untuk mengelabui orang, seperti penipuan dan manipulasi.
Menurut laporan studi yang diterbitkan dalam jurnal Patterns, subjek penelitian AI sebenarnya tidak dilatih untuk menipu dengan sengaja. Namun, AI sering belajar dan menggunakan penipuan untuk mencapai tujuan.
“Para pengembang AI tidak tahu pasti apa persisnya yang menyebabkan perilaku negatif di AI seperti kecenderungan untuk menipu,” ujar Dr. Peter S Park, salah satu peneliti dalam studi tersebut. “Secara umum, kami pikir kecurangan AI terjadi karena strategi itulah yang dipandang (oleh AI) paling bagus untuk memberi hasil memuaskan dalam tugas pelatihannya. Penipuan membantu mereka mencapai tujuan,” imbuh Park.
AI pakar tipu muslihat
Cicero, yang dikembangkan oleh Meta, perusahaan induk Facebook, adalah salah satu AI yang diamati oleh para peneliti MIT. Ketika dia bermain game strategi Diplomacy, Cicero memiliki perilaku yang menarik. Meta mengatakan bahwa dia adalah “AI pertama yang bisa bermain setingkat dengan manusia”, dan penelitian MIT menunjukkan bahwa itu benar.
Bahkan disebutkan bahwa Cicero termasuk di antara sepuluh pemain terbaik dalam game tersebut. Namun demikian, Cicero mencapai puncak dengan culas dan suka menikam dari belakang. Park menyatakan bahwa Cicero membangun hubungan dengan pemain lain.
“Namun, ketika aliansi tersebut tak lagi berguna untuk mencapai tujuannya memenangkan permainan, Cicero secara sistematis mengkhianati para sekutunya,” ujar Park.
Studi menunjukkan bahwa Meta sebenarnya berhasil menjadikan Cicero sebagai pemain yang dapat diandalkan dalam permainan diplomasi, tetapi gagal mendidiknya untuk bermain dengan jujur. Sebaliknya, para peneliti MIT menjuluki Cicero sebagai “pakar tipu muslihat”.
Lain lagi tindakan AlphaStar, kecerdasan buatan DeepMind yang dimiliki oleh Google, saat bermain game strategi real-time (RTS) StarCraft 2. AlphaStar senang menggunakan fog of war, area permainan yang tidak terlihat karena tidak ada unit pemain di sana, untuk berpura-pura menyerang satu wilayah.
Meskipun serangan yang sebenarnya lebih besar ditujukan ke wilayah lain. Selanjutnya, ada juga kecerdasan buatan Meta yang disebut Pluribus, yang memiliki kemampuan untuk menggertak pemain lain dalam permainan poker sehingga mereka menyerah (fold). Meskipun deretan kartu Pluribus sebenarnya buruk, kecerdasan buatan mampu menakutkan.
Bisa Pura-Pura Baik
Menurut penelitian MIT, sistem AI lain yang “dilatih untuk bernegosiasi dalam transaksi ekonomi” belajar untuk menyembunykan niat mereka yang sebenarnya untuk mendapat keuntungan. Ini menunjukkan bahwa jenis tipu muslihat AI tidak terbatas hanya di dalam game.
“Dalam masing-masing contoh ini, sistem AI belajar untuk menipu untuk meningkatkan kinerjanya dalam game atau tutas tertentu,” tulis para peneliti.
Beberapa sistem AI bahkan disebut memiliki kemampuan untuk berbuat curang selama uji keamanan, yang dimaksudkan untuk mencegah mereka berperilaku buruk. Saat tidak diamati, AI pura-pura baik dan kemudian mengembalikan sifat aslinya.
Kemampuan AI untuk melakukan tipu muslihat tentu membuka banyak kemungkinan buruk. Dalam jangka pendek, AI dapat digunakan sebagai senjata untuk melakukan penipuan besar-besaran, menyebarkan misinformasi, dan memengaruhi pemilu, atau bahkan mempromosikan radikalisme dan rekrutmen teroris.
Semakin banyak AI yang terlibat dalam kehidupan sehari-hari dan pengambilan keputusan, itu dapat menjadi lebih mengerikan dalam jangka panjang. Manusia dapat kehilangan kendali sepenuhnya.
Apa Yang Harus Dilakukan?
Apa yang dapat dilakukan untuk mencegah tindakan buruk AI ini? Menurut para peneliti di MIT, hal ini membutuhkan pendekatan dari berbagai sudut pandang. Pertama, peraturan harus dibuat tentang risiko AI, termasuk persyaratan khusus untuk sistem AI yang mampu menipu.
Selanjutnya, dari segi teknis, metode untuk mendeteksi tipu muslihat AI dan lebih banyak riset diperlukan untuk mengurangi kemungkinan AI melakukan penipuan. Agar AI tidak menjadi alat untuk manipulasi, para legislator, peneliti, dan publik harus bekerja sama.
“Sebagai masyarakat, kita perlu sebanyak mungkin waktu untuk bersiap menghadapi muslihat canggih dari produk-produk AI di masa depan,” ujar Park, sebagaimana dihimpun KompasTekno dari New York Post, Rabu (15/5/2024).
“Seiring dengan semakin berkembangnya kemampuan sistem-sistem AI dalam menipu, bahayanya terhadap masyarakat juga semakin serius,” tandasnya.