Sosial Media
powered by Surfing Waves
0
News
    Ingin Cepat Kaya? Kerja, Jangan Judi - Kumpulan Informasi Teknologi Hari ini, Setiap Hari Pukul 16.00 WIB
    Home AI Featured Istimewa Kecerdasan Buatan Spesial

    Benarkah Angkat Telepon Nomor Asing dan Bilang “Halo” Disebut Bisa Dimanfaatkan Jadi Modus Penipuan AI? - Kompas

    6 min read

     

    Benarkah Angkat Telepon Nomor Asing dan Bilang “Halo” Disebut Bisa Dimanfaatkan Jadi Modus Penipuan AI?

    Kompas.com, 24 Oktober 2025, 15:00 WIB


    logo appx2

    KOMPAS.com - Unggahan bernarasi modus penipuan baru yang disebut dapat terjadi hanya dengan mengangkat telepon dari nomor tak dikenal, viral di media sosial.

    Unggahan tersebut dibagikan oleh akun resmi TikTok Ditressiber Polda Sulawesi Tengah pada Minggu (19/10/2025).

    Baca berita tanpa iklan. Gabung Kompas.com+

    Dalam unggahannya, mereka memperingatkan bahwa menjawab panggilan dari nomor asing, bahkan hanya beberapa detik atau sekadar mengucap “halo” atau “maaf, ini siapa?”, dapat dimanfaatkan pelaku penipuan untuk membuat kloning suara menggunakan kecerdasan buatan (AI).

    Suara hasil tiruan inilah yang kemudian digunakan pelaku untuk berpura-pura menjadi korban dan menipu orang-orang terdekatnya dengan berbagai alasan agar mau mentransfer uang.

    Detik-detik Bos Besar Judol Myanmar Diekstradisi ke China Setelah Buron 10 Tahun

    Modus penipuan baru. Nomor tidak dikenal menelpon, kita jawab ‘halo’, suara kita direkam dan dipakai AI untuk menipu orang terdekat,” tulis pengunggah.

    Lantas, benarkah mengangkat telepon nomor asing dapat dimanfaatkan sebagai modus penipuan dengan AI?

    Sumber suara tak hanya terbatas pada panggilan telepon

    Praktisi keamanan digital dari Vaksincom, Alfons Tanujaya menjelaskan, sampel suara sederhana seperti ucapan “halo” memang bisa dimanfaatkan untuk memalsukan suara seseorang menggunakan AI.

    “AI hanya membutuhkan sampel beberapa detik untuk mengenali sidik suara seseorang dan menirunya,” ujarnya kepada Kompas.com, Selasa (21/10/2025).

    Baca berita tanpa iklan. Gabung Kompas.com+

    Namun, sumber suara tidak terbatas pada panggilan telepon saja. Pasalnya, data suara juga dapat diperoleh dari berbagai bentuk komunikasi digital lainnya, seperti pesan suara di WhatsApp, email berisi rekaman suara, atau platform komunikasi online lainnya.

    Alfons pun mengingatkan agar tidak mudah menerima panggilan telepon, terutama dari nomor yang tak dikenal.

    “Kalau mau berhati-hati, itu sah-sah saja. Tapi akan terasa aneh kalau setiap kali menerima telepon kita tidak berani bersuara. Paling tidak, tetaplah waspada terutama saat menerima panggilan dari nomor baru yang tidak dikenal,” kata dia.

    Panggilan sesaat belum cukup untuk kloning suara

    Senada, Chairman Lembaga Riset Keamanan Siber CISSReC, Pratama Persadha mengatakan, kloning suara menggunakan AI secara teknis memang mungkin untuk dilakukan.

    Hal ini terutama terjadi jika pelaku memperoleh sampel suara yang cukup banyak dari panggilan telepon yang berlangsung lama.

    Dengan data suara tersebut, pelaku dapat mengolahnya menggunakan AI untuk melakukan berbagai aksi penipuan.

    Beberapa modus yang mungkin dilakukan, antara lain menelepon keluarga korban dan berpura-pura mengalami kecelakaan, menghubungi rekan kerja untuk meminjam uang, atau membuat konten palsu menggunakan suara korban.

    Namun, jika panggilan hanya berlangsung sesaat dan segera ditutup, data suara yang terekam belum cukup untuk digunakan membuat narasi suara melalui AI.

    “Secara teknis, jika suara yang diperoleh hanya beberapa detik, data tersebut belum cukup untuk membentuk model suara yang akurat. Diperlukan lebih banyak sampel agar hasil kloning terdengar alami,” jelas dia saat dihubungi terpisah, Jumat.

    Meski begitu, Microsoft melalui program AI bernama VALL-E pernah mengeklaim bahwa sistemnya dapat menciptakan narasi suara hanya dari sampel selama tiga detik.

    Kendati demikian, Pratama menegaskan bahwa teknologi tersebut belum sempurna dan masih memiliki banyak keterbatasan.

    “Tim peneliti Microsoft sendiri mengakui bahwa sistem itu masih jauh dari kata sempurna, terutama untuk bahasa yang memiliki aksen khas. Suara yang dihasilkan sering kali terdengar patah-patah, seperti suara robot, atau bahkan tidak terdengar alami sama sekali,” tambahnya.

    Upaya mitigasi

    Lebih lanjut, Pratama menjelaskan mengenai sejumlah langkah yang dapat dilakukan agar tidak menjadi korban kejahatan dengan modus kloning suara menggunakan AI, di antaranya:

      “Kalau sudah terlanjur suara Anda direkam atau curiga suara Anda dipakai untuk kloning, lakukan langkah pemulihan dan mitigasi,” jelas Pratama.

      Upaya mitigasi tersebut berupa mengamankan akun-akun penting, seperti mengganti kata sandi dan mengaktifkan metode autentikasi yang tidak bergantung pada suara, misalnya aplikasi autentikator, token fisik, atau verifikasi SMS/OTP bila perlu.

      Selanjutnya, hubungi pihak bank atau layanan lain yang menggunakan verifikasi suara untuk memberi tahu potensi penyalahgunaan, agar mereka dapat menambah lapisan keamanan tambahan pada akun Anda.

      Selain itu, beritahu keluarga dan kolega bahwa suara Anda mungkin telah dipalsukan agar mereka lebih berhati-hati terhadap permintaan uang atau informasi sensitif melalui telepon.

      Pratama juga menyarankan untuk menetapkan “kata aman” internal yang hanya diketahui oleh keluarga sebagai verifikasi cepat dalam situasi darurat.

      Ia menambahkan, jika suara sudah disalahgunakan untuk konten publik palsu, segera lakukan langkah mitigasi reputasi, seperti membuat klarifikasi di media sosial, meminta penghapusan konten dari platform terkait, dan bila diperlukan, konsultasikan langkah hukum.

      Dalam segala situasi, KOMPAS.com berkomitmen memberikan fakta jernih dari lapangan. Ikuti terus update topik ini dan notifikasi penting di Aplikasi KOMPAS.com. Download sekarang
      Komentar
      Additional JS