2025-01-20 | #AwasModus

Waspada! Modus Penipuan Menggunakan AI Mulai Marak

Artificial Intelligence (AI) atau kecerdasan buatan saat ini telah menjadi bagian penting dalam membantu kehidupan kita sehari-hari, mulai dari pekerjaan di kantor hingga aktivitas sehari-hari di rumah. 

Seiring berjalannya waktu AI mulai disalahgunakan oleh beberapa oknum untuk melakukan penipuan. 

Sampai saat ini, penipuan AI sudah mulai banyak memakan korban. Penipuan ini memanfaatkan teknologi deepfake untuk menipu korban dengan cara yang sulit dibedakan dari kenyataan. 

Deepfake adalah teknologi yang menggunakan kecerdasan buatan (AI) untuk membuat video atau audio palsu yang terlihat asli. Teknologi ini dapat memanipulasi gambar atau video sehingga terlihat seperti seseorang melakukan sesuatu yang sebenarnya tidak pernah dilakukan.

Berikut adalah penjelasan dan beberapa contoh kejadian modus penipuan menggunakan AI dan cara untuk menghindarinya.

Penipuan Menggunakan Suara AI

OJK pernah meminta masyarakat agar semakin waspada dengan jenis penipuan baru yang menggunakan teknologi deepfake yang salah satunya lewat sambungan telepon.

Telepon penipuan tersebut akan menampilkan suara penelepon familiar dan terdengar seperti keluarga, teman, atau orang yang dikenal. Teknologi AI bisa membuat suara seseorang yang sangat mirip dengan yang orang kamu kenal.

Inilah yang membuat banyak orang terjebak dan akhirnya mengikuti perintah si penelepon.

Penipuan Menggunakan Video AI

Beberapa waktu yang lalu viral di media sosial penipuan dengan metode panggilan video menggunakan wajah seorang selebritis terkenal.

Dalam video tersebut korban menerima panggilan video call dari nomor tak dikenal yang menunjukan suara dan visual selebritas tersebut dan mengiming-imingi bahwa korban telah memenangkan hadiah jutaan rupiah.

Ini adalah peniruan canggih yang dibuat oleh AI yang meniru suara atau penampilan seseorang. Cara menirunya adalah dengan menganalisis banyak video dan konten online dari seseorang, yang setelahnya akan dibuat tiruan yang sangat mirip oleh algoritma AI.

Penipu umumnya menggunakan deepfake untuk meniru orang yang dikenal atau dipercaya oleh calon korban dengan tujuan untuk memeras uang atau meminta data pribadi dari calon korban.

Karena suara dan wajahnya sudah dikenal, korban tanpa curiga akan menuruti permintaannya tanpa pikir panjang.

Tips Aman untuk Menghindari Penipuan menggunakan AI

Ada beberapa cara untuk menghindari penipuan menggunakan teknologi AI ini. Berikut adalah beberapa tipsnya.

1. Jangan Bagikan Informasi Penting di Media Sosial

Tips pertama dan paling penting adalah jangan sembarangan memberikan informasi pribadi kamu di media sosial.

Meskipun informasi yang kamu unggah tampaknya tidak berbahaya, tetapi penjahat siber dapat menggunakan data tersebut untuk membuat deepfake dan penipuan yang dapat dipercaya.

2. Jangan Sembarang Menjawab Telepon/Chat/Email dari Nomor/Akun Tak Dikenal

Tentu saja, tidak semua nomor/akun yang tidak dikenal adalah deepfake. Namun, jika kamu tidak sedang menunggu telepon/chat dari orang tertentu, lebih baik jangan dilayani.

Jika terlanjur sudah menerima telepon/chat dari nomor tidak dikenal dan orang tersebut mengaku sebagai orang yang kamu kenal (keluarga, sanak saudara, pejabat dikenal, dll), sebaiknya dikonfirmasikan ke sumber terpercaya, misalnya ke WA grup yang ada orang tersebut dan menanyakan apakah nomor/akun tersebut benar milik orang tersebut.

3. Ajukan Pertanyaan Spesifik

Jika memang sudah terlanjur menjawab telepon dan suaranya atau visualnya familiar sebagai orang yang kamu kenal, konfirmasi ulang identitasnya dengan mengajukan pertanyaan spesifik.

Mintalah penelepon/video call untuk menceritakan hal-hal yang hanya diketahui oleh kalian berdua. Jika jawabannya terdengar mencurigakan, langsung tutup telepon/video call nya.

4. Jangan Turuti Permintaan Si Penelepon

Dengan menggunakan AI (meniru suara/wajah orang yang dikenali oleh korban), biasanya pelaku menelepon atau video call dan memberikan iming-iming barang-barang berharga dari imigrasi dengan harga miring, rumah/kendaraan lelang dengan harga menggiurkan, dll. 

Atau bisa saja memberi informasi yang bersifat genting seperti Ayah/Ibu butuh pertolongan mobilnya mogok, ada dari Kepolisian mengabarkan kamu terlibat judi online, dll.

Jika selanjutnya dia meminta uang atau data-data pribadi, bersikaplah waspada dan jangan takut untuk menolaknya. Meskipun orang tersebut mengaku keluarga, teman dekat atau pejabat/artis yang dikenal.

Apalagi jika si penelepon sebelumnya jarang menghubungi kamu, bahkan tidak pernah melakukan permintaan tersebut, maka cara paling aman adalah menolak dengan tegas dan matikan telepon atau video call nya.

5. Dengarkan Tanda-Tanda Penipuan Menggunakan Suara AI

Meskipun suara seseorang dapat ditiru, tetapi biasanya akan ada jeda atau distorsi yang tidak biasa pada suara dan videonya, yang bisa menjadi tanda deepfake.

Jadi, dengarkan dengan teliti suara si penelpon, khususnya irama dan kecepatan pembicara yang seringkali lebih sulit untuk ditiru. Jika tidak yakin itulah adalah cara bicara orang yang kamu kenal, segera putuskan sambungan teleponnya.

6. Perhatikan Tanda-Tanda Penipuan Menggunakan Visual AI

Kenali tanda-tanda penipu yang menggunakan visual AI. Berikut ciri-ciri yang harus kalian perhatikan

  • Ketidaksesuaian gerakan wajah dan suara
  • Ketidakwajaran pada mata dan tatapan
  • Tepi dan latar belakang yang kabur
  • Perbedaan kualitas pada bagian tertentu
  • Terlalu sempurna atau terlalu berlebihan

Itulah contoh, penjelasan mengenai penipuan deepfake yang menggunakan teknologi suara dan visual AI, serta tips keamanannya.

Bagi yang belum aware, berikut daftar nomor dan akun-akun resmi BCA:

  • Telepon Halo BCA di 1500888 (tanpa awalan apa pun)
  • Whatsapp Bank BCA di 08111500998 (pastikan sudah centang biru)
  • Akun resmi social media BCA, bisa dicek di www.bca.co.id/socialmedia
  • Aplikasi haloBCA yang di-download dari sumber resmi, yaitu Play Store atau App Store.

Jika kamu pernah mengalaminya atau menjadi korban seperti ini, segera hubungi BCA ya. Agar terhindar dari penipuan, simak update modus-modus penipuan terkini di www.bca.co.id/awasmodus .