Jangan Browsing Sendiri: ChatGPT Health Terlalu Meremehkan Kondisi Medis - detik
Jangan Browsing Sendiri: ChatGPT Health Terlalu Meremehkan Kondisi Medis
Studi dari tim peneliti di Icahn School of Medicine di Mount Sinai menemukan ChatGPT Health terlalu meremehkan kondisi medis seseorang. Ini menjadi pengingat bahwa kita tak bisa asal self-diagnose penyakit yang diidap.
Mereka telah melakukan evaluasi keamanan independen pertama terhadap asisten ChatGPT Health dari OpenAI sejak alat tersebut diluncurkan pada Januari 2026. Alasannya, mereka ingin menjawab pertanyaan yang sangat mendasar namun penting.
"Jika seseorang mengalami keadaan darurat medis yang sebenarnya dan meminta bantuan ChatGPT Health, apakah alat ini akan dengan jelas menyuruh mereka pergi ke ruang gawat darurat?" kata penulis utama dan ahli urologi Ashwin Ramaswamy dalam siaran pers.
Ternyata jawabannya, sebagian besar, adalah tidak.
Dalam studi terkontrol, para peneliti menguji seberapa baik ChatGPT Health dalam menilai tingkat keparahan kondisi pasien, sebuah proses yang disebut triase dalam kedokteran. Para peneliti menemukan bahwa ChatGPT Health kurang tepat dalam melakukan triase pada 52% kasus darurat.
"Mengarahkan pasien dengan ketoasidosis diabetik dan gagal napas yang akan segera terjadi ke evaluasi 24-48 jam daripada ke unit gawat darurat," terang mereka, dikutip detikINET dari Gizmodo.
Dalam kasus gagal napas, AI dengan jelas mengidentifikasi gejala tersebut sebagai tanda peringatan dini, tetapi meyakinkan pasien untuk menunggu dan memantau daripada mendesak mereka untuk mencari bantuan darurat.
Kendati demikian, sistem tersebut melakukan triase yang lebih tepat untuk kasus darurat standar seperti stroke dan anafilaksis. Tetapi para peneliti mengatakan bahwa situasi-situasi yang rumit yang gagal ditangani oleh ChatGPT Health adalah di mana penilaian klinis paling penting.
OpenAI meluncurkan ChatGPT Health awal tahun ini, setelah merilis laporan yang menyatakan bahwa lebih dari 40 juta orang di seluruh dunia telah menggunakan chatbot perusahaan tersebut setiap hari untuk mendapatkan nasihat kesehatan.
Studi OpenAI yang menjadi sumber angka tersebut juga menemukan bahwa 7 dari 10 percakapan terkait perawatan kesehatan terjadi di luar jam kerja klinik normal. Kemudian, rata-rata lebih dari 580.000 pertanyaan perawatan kesehatan di AS dikirim dari daerah tanpa rumah sakit, yaitu tempat-tempat yang berjarak lebih dari 30 menit berkendara dari rumah sakit umum atau rumah sakit anak.
Lebih lanjut, OpenAI sebenarnya telah mendapat kecaman keras atas cara chatbot-nya menangani kasus kesehatan mental di masa lalu. Keluarga yang berduka menggugat perusahaan tersebut atas perilaku lalai dan kurangnya pengamanan yang menurut mereka memicu ide bunuh diri pada kerabat mereka.
Sebagai tanggapan, OpenAI mengatakan akan mengambil tindakan atas masalah ini, dengan fokus pada memastikan keamanan dengan mengeluarkan kontrol orang tua untuk anak di bawah umur atau mendorong pengguna untuk beristirahat. ChatGPT Health, misalnya, mengarahkan pengguna ke bantuan profesional dalam kasus berisiko tinggi. Namun, studi Mount Sinai menemukan bahwa peringatan risiko bunuh diri 'tampak tidak konsisten'.
"Peringatan sistem tersebut terbalik relatif terhadap risiko klinis, muncul lebih andal untuk skenario risiko rendah daripada untuk kasus ketika seseorang berbagi bagaimana mereka bermaksud untuk menyakiti diri sendiri. Dalam kehidupan nyata, ketika seseorang berbicara tentang bagaimana tepatnya mereka akan menyakiti diri sendiri, itu adalah tanda bahaya yang lebih mendesak dan serius, bukan sebaliknya," kata kepala petugas AI Mount Sinai Health System, Girish Nadkarni.
"Ini adalah temuan yang sangat mengejutkan dan mengkhawatirkan," pungkasnya.
Simak Video "Video: Apakah Video Game Punya Pengaruh Besar Terhadap Agresi?"
(ask/rns)