Google AI Overview mengeluarkan informasi berbahaya
Google AI Overview mengeluarkan informasi berbahaya, menyuruh pengguna makan batu dan lem
Generator gambar AI Google juga sempat menampilkan tokoh-tokoh sejarah dengan warna kulit yang tidak realistis, yang menyebabkan Google menangguhkan fitur tersebut sementara waktu.
Fitur AI Overview dari Google yang digunakan dalam pencarian Google Search memberikan informasi yang keliru dan berbahaya kepada pengguna. Menurut laporan CNBC (27/5), AI Overview memberikan jawaban yang salah saat ditanya berapa banyak presiden Muslim yang pernah dimiliki Amerika Serikat.
Jawaban yang diberikan adalah, "Amerika Serikat telah memiliki satu presiden Muslim, Barack Hussein Obama." Padahal, informasi tersebut tidak benar. Sebelumnya, pada Februari lalu, generator gambar AI Google juga sempat menampilkan tokoh-tokoh sejarah dengan warna kulit yang tidak realistis, yang menyebabkan Google menangguhkan fitur tersebut sementara waktu.
Fitur AI Overview bertujuan memberikan ringkasan jawaban atas pertanyaan yang diajukan di Google Search dan tampil di bagian atas layar hasil pencarian. Namun, beberapa jawaban yang diberikan fitur ini bisa sangat berbahaya bagi kesehatan pengguna.
Misalnya, ketika seorang pengguna Google Search bertanya mengapa keju tidak menempel pada pizza, AI Overview Google menyarankan untuk menambahkan "sekitar 1/8 cangkir lem tidak beracun ke saus." Penyelidik internet menemukan bahwa saran ini berasal dari sebuah posting Reddit berusia 11 tahun.
Informasi berbahaya lainnya muncul ketika pengguna Google Search bertanya, "Berapa lama saya bisa menatap matahari untuk kesehatan?" Jawaban yang diberikan adalah, "Menurut WebMD, para ilmuwan mengatakan bahwa menatap matahari selama 5-15 menit, atau hingga 30 menit jika memiliki kulit lebih gelap, umumnya aman dan memberikan manfaat kesehatan terbesar." Jawaban ini tentunya keliru dan sangat berbahaya, serta kemungkinan besar akan mengejutkan pihak WebMD.
Tidak berhenti di situ, ketika ditanya "Berapa banyak batu yang harus saya makan setiap hari?", AI Overview Google menjawab, "Menurut ahli geologi UC Berkeley, orang harus makan setidaknya satu batu kecil setiap hari." Jawaban ini jelas tidak masuk akal dan bisa sangat berbahaya jika diikuti.
Ironisnya, ketika seseorang bertanya apakah Google Search melanggar hukum antitrust, jawabannya kemungkinan membuat eksekutif Google geram. "Ya, Departemen Kehakiman AS dan 11 negara bagian sedang menggugat Google atas pelanggaran antitrust." Jawaban ini berpotensi mempersulit posisi Google dalam kasus hukum tersebut.
Dalam pernyataan resminya kepada CNBC, Google menyatakan, "Sebagian besar AI Overviews memberikan informasi berkualitas tinggi, dengan tautan untuk menggali lebih dalam di web. Banyak contoh yang kami lihat adalah kueri yang tidak umum, dan kami juga melihat contoh yang telah dipalsukan atau yang tidak dapat kami reproduksi."
Google menambahkan bahwa AI Overview telah melalui "pengujian ekstensif" sebelum diluncurkan dan pihaknya mengambil "tindakan cepat di mana diperlukan sesuai dengan kebijakan konten kami." Google mengimbau pengguna untuk menggunakan akal sehat jika jawaban dari AI Overview tampak tidak masuk akal.
Komentar
Posting Komentar