Kejahatan AI deepfake suara makin ganas - Tek id - Opsitek

Informasi Teknologi Pilihanku

demo-image

Post Top Ad

demo-image

Kejahatan AI deepfake suara makin ganas - Tek id

Share This
Responsive Ads Here

 

Kejahatan AI deepfake suara makin ganas

fbi-turun-tangan-selidiki-hacker-gta-6-gpWN01nNVw

Europol mengumumkan bahwa saat ini teknologi AI deepfake suara semakin ramai digunakan peretas untuk kelabui korban.

Tindak kejahatan menggunakan AI saat ini sedang marak terjadi dimana-mana. Salah satu kejahatan yang kini semakin banyak digunakan penjahat adalah menggunakan deepfake, baik menggunakan video atau sekedar menggunakan suara saja.

Sebuah laporan terbaru dari Europol juga tengah menyoroti bagaimana AI semakin mempercepat dan memperluas operasi kejahatan terorganisasi. AI tidak hanya mengotomatiskan berbagai modus operandi kriminal tetapi juga meningkatkan skala dan kesulitan dalam mendeteksinya. 

Nah, salah satu bentuk kejahatan yang kini semakin marak adalah penggunaan deepfake dalam serangan rekayasa sosial, yang dirancang untuk menipu individu agar memberikan informasi pribadi atau melakukan tindakan tertentu.

AI telah menjadi alat utama dalam meningkatkan efektivitas penipuan daring, terutama dalam manipulasi psikologis korban. Teknik ini disebut sebagai rekayasa sosial, di mana penipu memanfaatkan AI untuk menciptakan pesan teks, email, atau panggilan telepon yang sangat meyakinkan. 

Misalnya, seseorang dapat menerima pesan dari operator seluler palsu yang menyatakan bahwa layanan mereka akan diputus jika tidak segera melakukan pembayaran. Korban yang panik kemudian memberikan informasi keuangan mereka, yang kemudian digunakan oleh pelaku untuk mengakses akun dan mencuri uang mereka.

Oleh karena itu, seperti dilansir dari laman Phone Arena (24/3), menurut mantan pakar keamanan siber NSA, Evan Dornbush, AI kini memungkinkan pembuatan pesan-pesan penipuan yang lebih cepat, lebih realistis, dan lebih murah, sehingga meningkatkan risiko bagi masyarakat.

Sementara video deepfake telah menjadi perhatian utama dalam beberapa tahun terakhir, kini ancaman baru muncul dalam bentuk audio deepfake. Penipu dapat menggunakan AI untuk mereplikasi suara seseorang secara hampir sempurna, yang kemudian digunakan dalam skenario pemerasan emosional. 

Misalnya, seorang korban bisa menerima telepon dari seseorang yang terdengar seperti anggota keluarganya, mengklaim bahwa mereka sedang dalam bahaya dan membutuhkan uang tebusan untuk dibebaskan. Bahkan jika orang yang suaranya digunakan dalam panggilan tersebut sebenarnya sedang berada di tempat aman, AI membuat penipuan ini semakin meyakinkan dan sulit dideteksi.

Dengan ancaman yang terus berkembang ini, semakin penting bagi individu dan organisasi untuk meningkatkan kesadaran akan taktik penipuan berbasis AI. Mengonfirmasi identitas penelepon melalui metode lain, waspada terhadap permintaan mendesak yang mencurigakan, serta menggunakan teknologi keamanan seperti autentikasi dua faktor dapat membantu mengurangi risiko menjadi korban dari kejahatan yang semakin canggih ini.

Comment Using!!

Tidak ada komentar:

Posting Komentar

Post Bottom Ad

Pages