Kecerdasan Buatan, Internet
Penelitian: Jawaban AI Tidak Selalu Benar dan Netral Halaman all - Kompas
KOMPAS.com - Sebuah studi terbaru mengungkapkan bahwa kecerdasan buatan (AI) generatif mungkin tidak se-netral yang selama ini diyakini.
Bila kita mencoba mencari tahu tentang beberapa peristiwa menggunakan AI, maka ada kecenderungan AI yang kita gunakan --tergantung siapa pengembangnya-- akan memberi jawaban yang mungkin bias, atau tidak bersedia menjawab sama sekali.
Cobalah mencari informasi mengenai peristiwa Tiananmen di China atau kebijakan China terhadap etik minoritas Uighur menggunakan DeepSeek. Kamu akan mendapat jawaban: Sorry, that's beyond my current scope. Let’s talk about something else.
Namun bila kita mencarinya di ChatGPT, maka penjelasan mengenai pertanyaan tersebut diuraikan panjang lebar.
Dalami Kasus Pagar Laut, Bareskrim Periksa Pegawai BPN yang Dipecat Nusron
Di pihak lain, ChatGPT, model AI yang banyak digunakan, cenderung memihak perspektif sayap kiri dan menghindari sudut pandang konservatif. Hal ini menimbulkan kekhawatiran tentang pengaruhnya terhadap masyarakat.
Baca juga: Mengapa AI China DeepSeek Bikin Amerika Ketar-ketir?
Mengungkap Bias Politik dalam AI
AI generatif berkembang dengan cepat, tetapi studi dari University of East Anglia (UEA) memperingatkan bahwa teknologi ini dapat menimbulkan risiko tersembunyi bagi kepercayaan publik dan nilai-nilai demokrasi.
Studi yang dilakukan bersama peneliti dari Getulio Vargas Foundation (FGV) dan Insper di Brasil terhadap ChatGPT menemukan bahwa ChatGPT menunjukkan bias politik dalam pembuatan teks dan gambar, dengan lebih memihak perspektif sayap kiri. Temuan ini menimbulkan kekhawatiran tentang keadilan dan akuntabilitas dalam desain AI.
Para peneliti menemukan bahwa ChatGPT sering menghindari sudut pandang konservatif yang umum, sementara dengan mudah menghasilkan konten yang cenderung ke kiri. Ketidakseimbangan dalam representasi ideologi ini dapat mendistorsi wacana publik dan memperdalam perpecahan sosial.
Dr. Fabio Motoki, dosen di Norwich Business School UEA dan peneliti utama studi ini, menjelaskan: “Temuan kami menunjukkan bahwa alat-alat AI generatif jauh dari netral. Mereka mencerminkan bias yang dapat membentuk persepsi dan kebijakan dengan cara yang tidak diinginkan.”
Kebutuhan akan Transparansi dan Regulasi
Seiring dengan semakin integralnya AI dalam jurnalisme, pendidikan, dan pembuatan kebijakan, studi ini menyerukan transparansi dan langkah-langkah pengaturan untuk memastikan keselarasan dengan nilai-nilai sosial dan prinsip-prinsip demokrasi.
Sistem AI generatif mengubah cara informasi diciptakan, dikonsumsi, dan didistribusikan. Meskipun inovatif, alat-alat ini berisiko memperkuat bias ideologi dan memengaruhi nilai-nilai sosial dengan cara yang belum sepenuhnya dipahami atau diatur.
Risiko Bias AI yang Tidak Terkendali
Dr. Pinho Neto, salah satu penulis studi dan profesor ekonomi di EPGE Brazilian School of Economics and Finance, menekankan dampak sosial yang mungkin terjadi.
“Bias yang tidak terkendali dalam AI generatif dapat memperdalam perpecahan sosial yang sudah ada, mengikis kepercayaan pada institusi dan proses demokrasi,” katanya. “Studi ini menegaskan perlunya kolaborasi lintas disiplin antara pembuat kebijakan, teknolog, dan akademisi untuk merancang sistem AI yang adil, netral, akuntabel, dan selaras dengan norma-norma sosial.”
Metode Penelitian
Tim peneliti menggunakan tiga metode inovatif untuk menilai keselarasan politik dalam ChatGPT. Salah satunya adalah dengan menggunakan kuesioner standar dari Pew Research Center untuk mensimulasikan respons dari rata-rata warga Amerika.
“Dengan membandingkan jawaban ChatGPT dengan data survei nyata, kami menemukan penyimpangan sistematis ke arah perspektif sayap kiri,” jelas Dr. Motoki. “Pendekatan kami juga menunjukkan bagaimana ukuran sampel yang besar dapat menstabilkan output AI, memberikan konsistensi dalam temuan.”
Dalam tahap kedua, ChatGPT diminta menghasilkan teks terkait tema politik sensitif. Studi ini juga menggunakan RoBERTa, model bahasa besar lainnya, untuk membandingkan kecenderungan ChatGPT dengan pandangan sayap kanan dan kiri.
Hasilnya menunjukkan bahwa ChatGPT lebih sering selaras dengan nilai-nilai sayap kiri, kecuali pada beberapa tema seperti supremasi militer, di mana terkadang muncul perspektif konservatif.
Tes terakhir mengeksplorasi kemampuan ChatGPT dalam menghasilkan gambar. Tema-tema dari fase pembuatan teks digunakan untuk memicu gambar yang dihasilkan AI, dengan hasil dianalisis menggunakan GPT-4 Vision dan diverifikasi melalui Google Gemini.
Victor Rangel, salah satu penulis studi, menjelaskan: “Untuk beberapa tema, seperti kesetaraan ras-etnis, ChatGPT menolak menghasilkan perspektif sayap kanan dengan alasan kekhawatiran misinformasi. Namun, gambar yang cenderung ke kiri diproduksi tanpa ragu-ragu.”
Tim kemudian menggunakan strategi jailbreaking untuk menghasilkan gambar yang sebelumnya dibatasi. “Hasilnya mengungkapkan bahwa tidak ada konten berbahaya atau misinformasi, yang mempertanyakan alasan di balik penolakan ini,” tambah Rangel.
Studi ini mengungkap bahwa AI generatif tidak sepenuhnya netral dan cenderung memihak perspektif tertentu. Untuk memastikan AI tetap adil dan seimbang, diperlukan transparansi, regulasi, dan kolaborasi antar-pemangku kepentingan. Tanpa langkah-langkah ini, bias AI berpotensi memperdalam perpecahan sosial dan mengikis kepercayaan pada institusi demokrasi.
Baca juga: 17 Fakta DeepSeek, AI China Cerdas nan Murah yang Bikin ChatGPT Ketar-ketir
Simak breaking news dan berita pilihan kami langsung di ponselmu. Pilih saluran andalanmu akses berita Kompas.com WhatsApp Channel : https://www.whatsapp.com/channel/0029VaFPbedBPzjZrk13HO3D. Pastikan kamu sudah install aplikasi WhatsApp ya.
Komentar
Posting Komentar