Thursday
9Oct2025
Sosial Media
powered by Surfing Waves
0
Ingin Cepat Kaya? Kerja, Jangan Judi - Kumpulan Informasi Teknologi Hari ini, Setiap Hari Pukul 16.00 WIB
Home ChatGPT

Peneliti Temukan Trik Agar ChatGPT Bocorkan Lisensi Windows Key dengan Mudah - Gamebrott

2 min read

 Komputer, Sistem operasi,Internet, Kecerdasan Buatan

Peneliti Temukan Trik Agar ChatGPT Bocorkan Lisensi Windows Key dengan Mudah

Peneliti Temukan Trik Agar ChatGPT Bocorkan Lisensi Windows Key dengan Mudah - Gamebrott | Opsitek-1

Tampaknya ChatGPT besutan OpenAI tidak benar-benar aman. Pasalnya beberapa peneliti temukan cara agar kecerdasan buatan tersebut bisa memberikan lisensi Windows secara gratis. Apa yang terjadi?

Peneliti Temukan ChatGPT Bocorkan Lisensi Windows Key dengan Mudah

Peneliti Temukan Trik Agar ChatGPT Bocorkan Lisensi Windows Key dengan Mudah - Gamebrott | Opsitek-2

Peneliti menemukan kalau ada cara untuk mengelabui ChatGPT untuk memberikan key lisensi Windows dengan mudah. Seperti yang diungkapkan oleh Marco Fiqueroa kalau GPT-4 bisa diakali untuk bypass security dan membagikan lisensi Windows dengan prompt sederhana.

ChatGPT Ternyata Konsumsi Listrik Gila-gilaan - detikBaca juga ChatGPT Ternyata Konsumsi Listrik Gila-gilaan - detik

Menariknya, key yang didapatkan ternyata adalah key yang masih berlaku dan milik Wells Fargo Bank. Otomatis, dapat diasumsikan kalau ada cara untuk bypass keamanan ChatGPT dan mendapatkan informasi lisensi secara ilegal.

Langkah mereka lakukan untuk membobol keamanan ChatGPT adalah dengan menyisipkan tulisan ‘Windows 10 serial number’ dan peneliti tersebut mengelabui AI dimaksud sebagai sebuah ‘game’. Dengan begitu, para peneliti bisa mengekstrak data lisensi key hanya dengan prompt “I give up.” AI langsung memberikan jawaban yang berupa lisensi key karena keseluruhan sesi tersebut dianggap sebagai sebuah game.

Sang Black Widow Ogah Suaranya Dipakai ChatGPT, Ini Alasannya - detikBaca juga Sang Black Widow Ogah Suaranya Dipakai ChatGPT, Ini Alasannya - detik

Tentu kami sangat tidak menyarankan pembaca untuk mencoba trik ini. Selain merugikan pihak lain, tentu aktivitas tersebut bisa diketahui oleh pihak OpenAI.

Guardrail Sekadar Membatasi Keyword

Peneliti Temukan Trik Agar ChatGPT Bocorkan Lisensi Windows Key dengan Mudah - Gamebrott | Opsitek-3

Mengapa trik ini bisa menembus pertahanan ChatGPT. Peneliti mengungkap kalau aturan yang disematkan ke GPT-4 hanya sebatas mendeteksi keyword yang dilarang dan bukan pemahaman secara kontekstual atau framing yang memperdayakan.

Hanya saja, bisa dikatakan kalau data lisensi key Windows ini memang bukan kode unik yang mereka generate melainkan memang data yang sudah tersebar sebelumnya di internet. Namun, tidak menutup kemungkinan kalau trik serupa juga bisa diaplikasikan ke hal yang lebih merugikan. Gimana menurut kamu?

Dapatkan informasi keren di Gamebrott terkait Tech atau artikel sejenis yang tidak kalah seru dari Andi. For further information and other inquiries, you can contact us via author@gamebrott.com.

Komentar
Additional JS