Teknologi deepfake bisa menyenangkan untuk dimainkan, tetapi potensi bahayanya signifikan. Inilah yang bisa dihasilkan oleh deepfake di masa depan.
Tanda-tanda dari gambar deepfake dulunya mudah dikenali, tetapi AI generatif membuat kita mempertanyakan hampir semua yang kita lihat dan dengar sekarang. Dengan setiap model AI baru yang dirilis, tanda-tanda dari gambar palsu semakin berkurang kebingungan, Anda sekarang dapat membuat video deepfake, klon suara orang yang Anda cintai, dan mengarang artikel palsu hanya detik.
Untuk menghindari tertipu oleh AI deepfake, ada baiknya mengetahui bahaya apa yang mereka timbulkan.
Evolusi Deepfake
Deepfake menunjukkan seseorang melakukan sesuatu yang tidak pernah terjadi dalam kehidupan nyata. Itu benar-benar palsu. Kami menertawakan deepfake ketika dibagikan di internet sebagai meme atau lelucon, tetapi sangat sedikit orang yang menganggapnya lucu ketika digunakan untuk menyesatkan kita.
Dulu, deepfake dibuat dengan mengambil foto yang ada dan mengubahnya di perangkat lunak pengedit gambar seperti Photoshop. Tapi apa yang membedakan AI deepfake adalah bahwa itu dapat dihasilkan dari awal menggunakan algoritma pembelajaran yang mendalam.
Itu kamus Merriam-Webster mendefinisikan deepfake sebagai:
Gambar atau rekaman yang telah diubah dan dimanipulasi secara meyakinkan untuk menggambarkan seseorang sebagai melakukan atau mengatakan sesuatu yang sebenarnya tidak dilakukan atau dikatakan.
Namun dengan kemajuan teknologi AI, definisi ini mulai terlihat usang. Dengan penggunaan alat AI, deepfake kini menyertakan gambar, teks, video, dan kloning suara. Terkadang, keempat mode pembuatan AI digunakan sekaligus.
Karena ini adalah proses otomatis yang sangat cepat dan murah untuk digunakan, ini adalah alat yang sempurna untuk menghasilkan deepfake dengan kecepatan yang belum pernah kita lihat sebelumnya—semuanya tanpa perlu mengetahui satu hal pun tentang cara mengedit foto, video, atau audio.
Bahaya Besar AI Deepfakes
Sejumlah Pembuat video AI sudah ada, di samping banyak Generator suara AI. Masukkan a model bahasa besar seperti GPT-4 dan Anda memiliki resep untuk membuat deepfake yang paling dapat dipercaya yang telah kita lihat dalam sejarah modern sejauh ini.
Menyadari berbagai jenis deepfake AI, dan bagaimana mereka dapat digunakan untuk mengelabui Anda, adalah salah satu cara untuk menghindari penyesatan. Berikut adalah beberapa contoh serius tentang bagaimana teknologi AI deepfake menimbulkan ancaman nyata.
1. Pencurian Identitas AI
Anda mungkin pernah melihatnya. Di antara deepfake AI pertama yang benar-benar viral yang menyebar ke seluruh dunia adalah gambar Donald Trump yang ditangkap, dan salah satu Paus Francis dengan jaket puffer putih.
Sementara seseorang tampak seperti membayangkan ulang yang tidak bersalah tentang apa yang mungkin dikenakan oleh seorang tokoh agama terkenal pada hari yang dingin di Roma; gambar lainnya, menunjukkan seorang tokoh politik dalam situasi serius dengan hukum, memiliki konsekuensi yang jauh lebih besar jika dianggap nyata.
Sejauh ini, orang terutama menargetkan selebritas, tokoh politik, dan individu terkenal lainnya saat membuat AI deepfake. Sebagian, ini karena orang-orang terkenal memiliki banyak foto mereka di internet yang kemungkinan besar membantu melatih model tersebut sejak awal.
Dalam kasus generator gambar AI seperti Midjourney—digunakan dalam deepfake Trump dan Paus—pengguna hanya perlu memasukkan teks yang menjelaskan apa yang ingin mereka lihat. Kata kunci dapat digunakan untuk menentukan gaya seni, seperti foto atau fotorealisme, dan hasilnya dapat disesuaikan dengan peningkatan resolusi.
Anda bisa dengan mudah belajar menggunakan Midjourney dan uji ini sendiri, tetapi untuk alasan moral dan hukum yang jelas, Anda harus menghindari memposting gambar-gambar ini secara publik.
Sayangnya, menjadi manusia biasa yang tidak terkenal juga tidak menjamin bahwa Anda aman dari AI deepfake.
Masalahnya terletak pada fitur utama yang ditawarkan oleh generator gambar AI: kemampuan untuk mengunggah gambar Anda sendiri dan memanipulasinya dengan AI. Dan alat seperti Pengecatan di DALL-E 2 dapat memperluas gambar yang ada di luar batasnya dengan memasukkan prompt teks dan menjelaskan apa lagi yang ingin Anda hasilkan.
Jika orang lain melakukan ini dengan foto Anda, bahayanya bisa jauh lebih besar daripada deepfake Paus berjaket putih—mereka dapat menggunakannya di mana saja, berpura-pura menjadi Anda. Sementara kebanyakan orang umumnya menggunakan AI dengan niat baik, hanya ada sedikit batasan yang menghentikan orang menggunakannya untuk menyebabkan kerugian, terutama dalam kasus pencurian identitas.
2. Penipuan Klon Suara Deepfake
Dengan bantuan AI, deepfake telah melewati batas yang sebagian besar dari kita tidak siap: klon suara palsu. Hanya dengan sedikit audio asli—mungkin dari video TikTok yang pernah Anda posting, atau video YouTube tempat Anda muncul—model AI dapat mereplikasi satu-satunya suara Anda.
Sungguh aneh dan menakutkan membayangkan menerima panggilan telepon yang terdengar seperti anggota keluarga, teman, atau kolega. Klon suara deepfake menjadi perhatian yang cukup serius Komisi Perdagangan Federal (FTC) telah mengeluarkan peringatan tentang hal itu.
Jangan percaya suara itu. Hubungi orang yang seharusnya menghubungi Anda dan verifikasi ceritanya. Gunakan nomor telepon yang Anda tahu milik mereka. Jika Anda tidak dapat menghubungi orang yang Anda cintai, cobalah menghubungi mereka melalui anggota keluarga lain atau teman mereka.
The Washington Post melaporkan kasus pasangan berusia 70-an yang menerima panggilan telepon dari seseorang yang terdengar seperti cucu mereka. Dia berada di penjara dan sangat membutuhkan uang untuk jaminan. Tidak memiliki alasan lain untuk meragukan dengan siapa mereka berbicara, mereka pergi dan menyerahkan uang itu kepada penipu.
Bukan hanya generasi tua yang berisiko, The Guardian melaporkan contoh lain dari seorang manajer bank yang menyetujui transaksi $35 juta dolar setelah serangkaian "telepon palsu" dari seseorang yang mereka yakini sebagai direktur bank.
3. Berita Palsu yang Diproduksi Secara Massal
Model bahasa besar, seperti ChatGPT sangat, sangat bagus dalam menghasilkan teks yang terdengar seperti manusia, dan saat ini kami tidak memiliki alat yang efektif untuk menemukan perbedaannya. Di tangan yang salah, berita palsu dan teori konspirasi akan murah untuk diproduksi dan membutuhkan waktu lebih lama untuk dibantah.
Menyebarkan informasi yang salah tentu saja bukanlah hal baru, melainkan makalah penelitian diterbitkan di arXiv pada Januari 2023 menjelaskan bahwa masalahnya terletak pada betapa mudahnya meningkatkan output dengan alat AI. Mereka menyebutnya sebagai "kampanye pengaruh yang dihasilkan AI", yang menurut mereka dapat, misalnya, digunakan oleh politisi untuk mengalihdayakan kampanye politik mereka.
Menggabungkan lebih dari satu sumber yang dihasilkan AI menciptakan deepfake tingkat tinggi. Sebagai contoh, model AI dapat menghasilkan berita yang ditulis dengan baik dan meyakinkan untuk disandingkan dengan gambar palsu Donald Trump yang ditangkap. Ini memberinya lebih banyak legitimasi daripada jika gambar itu dibagikan sendiri.
Berita palsu juga tidak terbatas pada gambar dan tulisan, perkembangan dalam pembuatan video AI berarti kita melihat lebih banyak video deepfake bermunculan. Ini salah satu dari Robert Downey Jr. dicangkokkan ke video Elon Musk, diposting oleh Saluran YouTube Deepfakery.
Membuat deepfake bisa semudah mengunduh aplikasi. Anda dapat menggunakan aplikasi seperti TokkingHeads untuk mengubah gambar diam menjadi avatar animasi, yang memungkinkan Anda untuk mengunggah gambar dan audio Anda sendiri agar seolah-olah orang tersebut sedang berbicara.
Sebagian besar, ini menghibur dan menyenangkan, tetapi ada juga potensi masalah. Ini menunjukkan kepada kita betapa mudahnya menggunakan gambar seseorang untuk membuatnya seolah-olah orang tersebut mengucapkan kata-kata yang tidak pernah mereka ucapkan.
Jangan Tertipu oleh AI Deepfake
Deepfakes dapat digunakan dengan cepat dengan biaya yang sangat kecil dan dengan tingkat keahlian atau daya komputasi yang rendah. Mereka dapat berbentuk gambar yang dihasilkan, tiruan suara, atau kombinasi gambar, audio, dan teks yang dihasilkan AI.
Dulu jauh lebih sulit dan padat karya untuk menghasilkan deepfake, tetapi sekarang, dengan banyak aplikasi AI di luar sana, hampir semua orang memiliki akses ke alat yang digunakan untuk membuat deepfake. Saat teknologi deepfake AI tumbuh semakin maju, ada baiknya untuk terus memperhatikan bahaya yang ditimbulkannya.