InfoTangerang.id– Tren penggunaan Artificial Intelligence (AI) generatif atau kecerdasan buatan untuk membuat konten baru, seperti teks, gambar, musik, audio, dan video, diperkirakan akan semakin ramai di 2024.

Karena semakin canggihnya kemampuan alat AI generatif, sehingga pelaku kejahatan menjadi lebih mudah untuk meniru audio suara seseorang. Oleh karena itu, pengguna wajib berhati-hati dan cermat dalam berinteraksi di dunia digital.

Pelaku kejahatan kini menggunakan alat kloning AI untuk mengelabui korban agar korban mengira sedang berbicara dengan orang yang dikenal melalui telepon, padahal pengguna sedang berbicara dengan komputer.

Menurut siber Kaspersky, sebuah perusahaan keamanan, maraknya pemanfaatan AI generatif dapat digunakan untuk tujuan berbahaya.

Bahkan, hampir semua orang dapat membuat teks, foto, dan video palsu dalam hitungan menit dan memberikan dampak nyata pada bidang keamanan siber. Seperti mudahnya penjahat siber dalam membuat umpan penipuan. AI telah mempermudah pembuatan email phishing, postingan media sosial, dan situs web palsu.

Kaspersky menyebut, selama ini, penipuan AI semacam itu dapat dikenali dari bahasa yang ceroboh dan banyak kesalahan ketik, karena penipu tidak punya waktu untuk menulis dan mengoreksinya dengan benar.

“Namun kini, dengan WormGPT dan model bahasa lain yang dioptimalkan untuk peretas, penyerang dapat menciptakan umpan yang jauh lebih meyakinkan dan bervariasi pada skala industri,” jelas mereka.

Mari simak Tips Menghindari Penipuan AI:

  • Bersikap kritis terhadap konten di media sosial yang menstimulasi emosi
  • Biasakan selalu memverifikasi fakta di saluran berita terkemuka dan situs pakar.
  • Jangan mentransfer uang ke penggalangan dana atau kampanye amal tanpa melakukan pemeriksaan latar belakang penerima secara menyeluruh.
  • Instal perlindungan phishing dan penipuan d perangkat, dan aktifkan semua opsi yang memeriksa tautan, situs web, email, dan lampiran.
  • Hal ini akan mengurangi risiko mengklik tautan phishing atau mengunjungi situs web palsu.
  • Aktifkan perlindungan iklan banner yang berbahaya.
  • Periksa kembali informasi apa pun dari sumber yang terpercaya.

Mencegah agar tidak menjadi korban penyalahgunaan deepfake untuk penipuan, kenali modusnya:

  • Adanya panggilan telepon dari seseorang yang mengaku sebagai atasan, anggota keluarga, rekan kerja atau orang lain untuk meminta bantuan segera.
  • Skema penyalahgunaan AI tersebut terutama bertujuan untuk mengelabui korban agar secara sukarela mengirimkan uang kepada penjahat. Selain itu menargetkan karyawan perusahaan untuk mengakses jaringan perusahaan.
  • Jika terjadi, maka pengguna harus segera tutup sambungan telepon dan telepon balik. Pakar keamanan memperingatkan bahwa sangat mudah bagi penipu berkonten AI untuk berpura-pura bahwa panggilan tersebut berasal dari nomor telepon yang sah. Oleh karena itu, setiap kali pengguna menerima panggilan yang meminta uang atau informasi pribadi, tutup sambungan telepon dan telepon mereka kembali. Cari nomor tersebut secara online atau di kontak. Pengguna juga dapat mencoba mengirimi mereka pesan melalui jalur komunikasi lain yang terverifikasi seperti obrolan video atau email.
  • Pengguna harus menggunakan kata aman yang hanya diketahui oleh pengguna dan orang yang dikenal. Metode ini akan memverifikasi bahwa orang tersebut adalah orang yang benar-benar pengguna kenal dan bukan tipuan AI. Pengguna juga bisa mengetes penelepon untuk menanyakan tentang sesuatu yang hanya diketahui pengguna dan orang tersebut, sebagai contoh adalah menu makan malam. Pastikan pertanyaannya cukup spesifik sehingga penipu tidak dapat menjawab dengan benar dengan tebakan yang tepat.
  • Memahami suara apa pun bisa ditiru. Klon audio deepfake AI tidak hanya diperuntukkan bagi selebriti dan politisi, tetapi semua orang. Yang tidak disadari banyak orang adalah hanya dengan lima hingga sepuluh detik suara pengguna, konten tersebut dapat dengan mudah digunakan untuk membuat tiruan. Yang tidak disadari banyak orang adalah hanya dengan lima hingga sepuluh detik suara pengguna, konten tersebut dapat dengan mudah digunakan untuk membuat tiruan.
Dapatkan Berita Terbaru lainya dengan Mengikuti Google News Infotangerang
sosmed-whatsapp-green Follow WhatsApp Channel Infotangerang
Follow
Nadia Lisa Rahman
Editor