Halusinasi ChatGPT Terbaru Semakin Parah, Bisa 79 Persen Mengarang - Selular ID - Opsitek

Informasi Teknologi Pilihanku

demo-image

Post Top Ad

demo-image

Halusinasi ChatGPT Terbaru Semakin Parah, Bisa 79 Persen Mengarang - Selular ID

Share This
Responsive Ads Here

 Kecerdasan Buatan,

Halusinasi ChatGPT Terbaru Semakin Parah, Bisa 79 Persen Mengarang

Aplikasi-ChatGPT-1068x601-1

Selular.ID – Dalam pengujian internal yang dilakukan OpenAI, terungkap bahwa model ChatGPT o.4 memiliki halusinasi hingga 79% dalam tes SimpleQA. Model yang sama juga mengalami halusinasi hingga 48% saat menghadapi pertanyaan seputar tokoh masyarakat.

Masih dari sumber yang sama, OpenAI menemukan halusinasi pada model ChatGPT o.3 yang mengarang jawaban hingga sepertiga jawaban dari tes, saat diuji pertanyaan soal tokoh publik. Halusinasi ini naik dua kali lipat jika dibandingkan dengan model ChatGPT sebelumnya, yakni ChatGPT o.1. Pada uji SimpleQ, model ChatGPT o.3 memiliki tingkat halusinasi hingga 51%.

Baca juga: Pengguna Windows Masih Pilih ChatGPT Ketimbang Copilot

Hal ini menimbulkan pertanyaan besar lantaran kedua model tersebut adalah model Reasoning paling mutakhir milik OpenAI. ChatGPT o.3 dan ChatGPT o.4 mini memiliki fitur penalaran dan pencarian web, serta dipromosikan perusahaan sebagai model dengan logika paling baik.

Penyebab

Salah satu penjelasan atas fenomena ini ada pada cara kerja model ‘reasoning’ terbaru. Berbeda dengan sistem lama yang mengandalkan probabilitas statistik, model ini mencoba memecah masalah kompleks menjadi langkah-langkah logis yang mirip seperti cara berpikir manusia. Proses berpikir bertahap inilah yang justru bisa menjadi sumber masalah.

Dalam pemberitaan yang ditayangkan The New York Times, setiap langkah berpikir, sistem bisa saja menambahkan kesalahan baru, yang lalu saling menumpuk seiring berjalannya proses. Model baru Reasoning yang berhalusinasi ini juga kerap terjadi pada pengembang chatbot AI milik DeepSeek, hingga Google.

OpenAI sendiri mengakui kedua model masih diperlukan riset lebih lanjut untuk memahami penyebab pastinya. Halusinasi menjadi melekat pada model reasoning. Pihak ChatGPT melalui Gaby Raila mengatakan, perusahaan terus berupaya menurunkan kadar halusinasi pada model tersebut.

Baca juga: Ucapkan Thank You dan Please Membuat ChatGPT Harus Bayar Mahal

Mengutip WinFuture, fenomena halusinasi pada AI bukanlah hal yang baru. Sebelumnya, fenomena yang serupa pernah terjadi pada tahun 1980an. Para peneliti sudah mengamati fenomena halusinasi pada kecerdasan buatan yang disebut ‘efek Eliza’.

Efek Eliza pada tahun 80an merujuk pada chatbot awal, di mana orang-orang cenderung menganggap sistem AI lebih memahami daripada yang sebenarnya. Masalah halusinasi pada AI masa kini bisa dianggap sebagai versi modern dari efek tersebut. Hanya saja, sekarang sistemnya sendiri yang ‘merasa’ tahu lebih banyak dari kenyataannya.

Model reasoning ChatGPT o.3 dan o.4 mini menjadi perlu diwaspadai. Mengoreksi satu persatu benang yang kusut pada penyebab halusinasi untuk meluruskannya kembali juga bukan hal mudah. Teknologi yang kadang dianggap sebagai efisiensi, nyatanya masih perlu dikroscek kebenarannya dengan ilmu dan cara konvensional, meski memakan waktu yang lama.

Ikuti informasi menarik lainnya dari Selular.id di Google News

Rahmawati Fitria Tia
Rahmawati Fitria Tia

Selular.ID – Dalam pengujian internal yang dilakukan OpenAI, terungkap bahwa model ChatGPT o.4 memiliki halusinasi hingga 79% dalam tes SimpleQA. Model yang sama juga mengalami halusinasi hingga 48% saat menghadapi pertanyaan seputar tokoh masyarakat.

Masih dari sumber yang sama, OpenAI menemukan halusinasi pada model ChatGPT o.3 yang mengarang jawaban hingga sepertiga jawaban dari tes, saat diuji pertanyaan soal tokoh publik. Halusinasi ini naik dua kali lipat jika dibandingkan dengan model ChatGPT sebelumnya, yakni ChatGPT o.1. Pada uji SimpleQ, model ChatGPT o.3 memiliki tingkat halusinasi hingga 51%.

Baca juga: Pengguna Windows Masih Pilih ChatGPT Ketimbang Copilot

Hal ini menimbulkan pertanyaan besar lantaran kedua model tersebut adalah model Reasoning paling mutakhir milik OpenAI. ChatGPT o.3 dan ChatGPT o.4 mini memiliki fitur penalaran dan pencarian web, serta dipromosikan perusahaan sebagai model dengan logika paling baik.

Penyebab

Salah satu penjelasan atas fenomena ini ada pada cara kerja model ‘reasoning’ terbaru. Berbeda dengan sistem lama yang mengandalkan probabilitas statistik, model ini mencoba memecah masalah kompleks menjadi langkah-langkah logis yang mirip seperti cara berpikir manusia. Proses berpikir bertahap inilah yang justru bisa menjadi sumber masalah.

Dalam pemberitaan yang ditayangkan The New York Times, setiap langkah berpikir, sistem bisa saja menambahkan kesalahan baru, yang lalu saling menumpuk seiring berjalannya proses. Model baru Reasoning yang berhalusinasi ini juga kerap terjadi pada pengembang chatbot AI milik DeepSeek, hingga Google.

OpenAI sendiri mengakui kedua model masih diperlukan riset lebih lanjut untuk memahami penyebab pastinya. Halusinasi menjadi melekat pada model reasoning. Pihak ChatGPT melalui Gaby Raila mengatakan, perusahaan terus berupaya menurunkan kadar halusinasi pada model tersebut.

Baca juga: Ucapkan Thank You dan Please Membuat ChatGPT Harus Bayar Mahal

Mengutip WinFuture, fenomena halusinasi pada AI bukanlah hal yang baru. Sebelumnya, fenomena yang serupa pernah terjadi pada tahun 1980an. Para peneliti sudah mengamati fenomena halusinasi pada kecerdasan buatan yang disebut ‘efek Eliza’.

Efek Eliza pada tahun 80an merujuk pada chatbot awal, di mana orang-orang cenderung menganggap sistem AI lebih memahami daripada yang sebenarnya. Masalah halusinasi pada AI masa kini bisa dianggap sebagai versi modern dari efek tersebut. Hanya saja, sekarang sistemnya sendiri yang ‘merasa’ tahu lebih banyak dari kenyataannya.

Model reasoning ChatGPT o.3 dan o.4 mini menjadi perlu diwaspadai. Mengoreksi satu persatu benang yang kusut pada penyebab halusinasi untuk meluruskannya kembali juga bukan hal mudah. Teknologi yang kadang dianggap sebagai efisiensi, nyatanya masih perlu dikroscek kebenarannya dengan ilmu dan cara konvensional, meski memakan waktu yang lama.

Ikuti informasi menarik lainnya dari Selular.id di Google New

Comment Using!!

Tidak ada komentar:

Posting Komentar

Post Bottom Ad

Pages