BeritanasionalTeknologi

Waspada “Deepfake”: Modus Penipuan Video AI yang Makin Mirip Nyata

20

FM

Waspada “Deepfake”: Modus Penipuan Video AI yang Makin Mirip Nyata

Kemajuan teknologi kecerdasan buatan (AI) kini membawa tantangan baru bagi keamanan siber. Belakangan ini, masyarakat diminta ekstra waspada terhadap modus penipuan menggunakan video deepfake—teknologi yang mampu memanipulasi wajah dan suara seseorang agar terlihat sangat mirip dengan aslinya.


Bagaimana Cara Kerjanya?

Penipu biasanya menggunakan potongan video dari media sosial untuk menciptakan video baru. Dalam aksinya, pelaku sering kali:

  • Menyamar sebagai kerabat atau atasan: Meminta transfer uang darurat dengan alasan kecelakaan atau urusan kantor.

  • Mencatut tokoh publik: Membuat video testimoni palsu tentang investasi bodong atau bagi-bagi hadiah (giveaway).

  • Memanipulasi emosi: Video dibuat sedemikian rupa agar korban merasa panik atau tergiur keuntungan instan sehingga tidak sempat berpikir jernih.

Cara Mendeteksi Video AI Palsu

Meski terlihat sempurna sekilas, ada beberapa detail yang bisa Anda perhatikan untuk mengenali video hasil AI:

  1. Gerakan Mata yang Tidak Alami: Perhatikan apakah mata subjek berkedip secara normal. Video AI seringkali memiliki ritme kedipan yang kaku atau tidak ada sama sekali.

  2. Sinkronisasi Bibir (Lip-Sync): Cek apakah gerakan bibir sesuai dengan suara yang keluar. Sering kali ada jeda atau bentuk mulut yang terlihat aneh.

  3. Kualitas Audio: Suara hasil AI terkadang terdengar datar, robotik, atau memiliki gangguan latar belakang yang tidak konsisten.

  4. Distorsi Area Wajah: Perhatikan bagian pinggiran wajah, telinga, atau kacamata. Biasanya terdapat efek “bayangan” atau distorsi saat subjek bergerak.


Ingat: Jangan pernah memberikan data pribadi atau mentransfer uang hanya berdasarkan panggilan video tanpa verifikasi ulang melalui saluran komunikasi lain yang berbeda.

Penyebaran edukasi mengenai ancaman ini sangat penting untuk menekan jumlah korban. Selalu terapkan prinsip “saring sebelum sharing” dan tetap kritis terhadap setiap informasi yang masuk.

Exit mobile version