Realitas Palsu, Opini Sesat: Deepfake dalam Dunia Politik
- Deepfake jadi ancaman serius politik global. Manipulasi AI berpotensi mengguncang opini publik, melemahkan legitimasi pemilu, dan menggerus sistem demokrasi.

Firman Kurniawan
Author


Salah satu ancaman bersumber deepfake yang harus diwaspadai, adalah “campur tangannya” di bidang politik. Ini diingatkan Mea-Integrity, 2026, dalam “8 Deepfake Threats to Watch in 2026”. Peringatan Mea --perusahaan yang berfokus pada layanan Digital Evidence Integrity ini– menyebut: deepfake tokoh politik tertentu, dapat digunakan untuk membangun opini publik yang luas. Dilakukan dengan mengunggah video tiruan, ke media sosial. Isinya, memuat suatu lontaran pernyataan atau tindakan, namun sama sekali tak pernah dilakukannya. Lantaran rangkaian perilakunya identik dengan sosok tiruannya, opini publik terpengaruh.
Praktik peniruan dengan cara ini di bidang politik, sudah berlangsung lama. Bahkan jauh sebelum peringatan di atas. Salah satunya, saat digunakan di tengah perang yang sedang berkecamuk. Pada perang Rusia vs Ukraina, pihak-pihak yang terlibat memanfaatkan deepfake untuk melemahkan moral lawannya. Media Inggris bbc.com, 18 Maret 2022, lewat: ”Deepfake Presidents Used in Russia-Ukraine War” mengemukakan praktiknya. Presiden Ukraina Volodymr Zelenskyy, digambarkan muncul di belakang podium dan meminta warga Ukraina meletakkan senjatanya. Sementara lawannya, Presiden Rusia Vladimir Putin ditampilkan dengan pernyataan: telah tercapainya perdamaian di antara kedua negara.
Unggahan kedua presiden itu, dengan segera dikenali sebagai deepfake. Ini lantaran formulasinya yang kasar. Zelensky ditampilkan dengan kepala yang terlalu besar dan tebaran piksel pada tubuhnya. Juga suaranya yang terdengar lebih dalam. Sedangkan formulasi Putin, tak kurang buruknya. Ada kelemahan beberapa aspek teknis, yang menyertainya. Alih-alih pernyataan keduanya dipercaya warga di masing-masing negara, justru manipulasinya jadi bulan-bulanan ejekan.
Ilustrasi penggunaan formulasi deepfake itu menunjukkan: realitas politik dapat diubah, dikacaukan, bahkan dimanipulasi. Kehadirannya dapat dipaksa, tanpa acuan. Ini memunculkan kebingungan. Dapat dibayangkan saat warga Ukraina --yang menolak tunduk pada keinginan Rusia-- mempercayai permintaan “Zelenskyy”: menghentikan perlawanan dan meletakkan senjata. Memang perangnya berakhir, tapi bukan oleh kesepakatan damai yang saling menguntungkan. Otoritas Ukraina dan warganya, terperdaya oleh permintaan palsu. Berhentinya perlawanan, berarti meletakkan Ukraina sebagai pihak yang kalah. Demikian pula jika “Putin” dipercaya. Warga Rusia akan dibingungkan oleh kebijakan perangnya yang berubah drastis. Kebingungan yang bakal melemahkan moral birokrat negaranya, juga bagi kalangan militer. Unggahan yang bertujuan membangun opini itu, tak punya landasan. Realitasnya palsu, maka opininya sesat.
Adapun penggunaan deepfake yang intensif –secara sistematis dan konsisten-- dapat menggerus sistem demokrasi yang sedang berlangsung. Pemerintahan hasil pemilihan yang merepresentasikan kehendak rakyat, dapat diruntuhkan. Bukan oleh kudeta militer, juga oleh paksaan warganya yang berhari-hari berunjuk rasa. Melainkan oleh kesimpangsiuran informasi yang intensif. Sistem pemerintahan diwarnai ketidakpastian, melambat dan disfungsi. Jatuh adalah keadaan berikutnya. Kejatuhan yang serupa dengan gelombang pergantian pemerintahan di Timur Tengah –Arab spring 2010-- akibat massifnya opini publik di media sosial.
Potensi disinformasi yang difasilitasi deepfake --semacam kekhawatiran di atas—senyatanya terjadi, akhir tahun lalu. Sebuah akun di Facebook pada 9 Desember 2025, memuat tayangan video yang menggambarkan seolah-olah berlangsungnya sebuah breaking news oleh stasiun TV Perancis, yang “live 24” jam. Perempuan penyiarnya mengumumkan kejatuhan Pemerintahan, yang dipimpin Presiden Emmanuel Macron itu. Kudetanya dilakukan oleh Pasukan Militer yang dipimpin seorang Kolonel. Pada tayangan yang berlangsung tak lebih dari 15 detik, ditunjukkan adanya kerumuman massa di jalan-jalan Paris, lengkap dengan Menara Eiffel-nya. Juga helikopter yang berlalu-lalang, maupun pasukan bersenjata yang menjaga situasi. Ilustrasi ini, lazim untuk menggambarkan peristiwa kudeta.
Sebagian besar penonton --yang jumlahnya mencapai 13 juta, sepekan setelah penayangan—menyadari, yang disaksikan adalah deepfake. Namun ada seorang pemimpin yang berasal dari negara Afrika, menganggap unggahan itu nyata. Ini terlontar sebagai keprihatinan yang diungkapkan kepada Macron, “Dear President, what is happening in your country?" Keprihatinan yang diceritakan Presiden Macron, walaupun tak menyebut negara asal pemimpin itu. Panca indera alamiah, tak selalu dapat mengenali deepfake. Terlebih ketika pada sekelompok masyarakat tertentu, materialnya masih beredar terbatas. Kepekaaan mentalnya, belum terbentuk.
Dalam realitas hari ini, kekerapan penggunaan deepfake --yang dapat mengganggu proses politik maupun terpeliharanya kelangsungan demokrasi-- terus meningkat. Bahkan pada Pemilu Presiden Amerika tahun 2024, terjadi kekhawatiran tingginya gelombang manipulasi gambar, audio, maupun video palsu. Gelombang itu, didorong oleh kemajuan Generative AI. Shannon Bond, 2024, dalam “How AI Deepfakes Polluted Elections in 2024”, menguraikan berbagai praktik penggunaannya.
Salah satunya terjadi di bulan Januari 2024. Saat ribuan pemilih di New Hampshire menerima panggilan telepon. Ketika panggilan itu ditanggapi, terdengar suara yang identik dengan suara Presiden Joe Biden. Isi pembicaraannya, meminta para pengikut Partai Demokrat untuk tidak memilih di pemilihan pendahuluan negara bagian tersebut. Pemilihan pendahuluan yang segera berlangsung, beberapa hari berikutnya. Untungnya banyak yang sadar, permintaan itu palsu.
Atas kejanggalan itu, Kantor Kejaksaan Negara Bagian New Hampshire melakukan penyelidikan. Peristiwanya dimuat sebagai berita cnbc.com, 23 Januari 2024, berjudul: “Fake Biden Robocall Telling Democrats not to Vote is Likely an AI-Generated Deepfake”. Disebutkan, kantor jaksa agung menduga kuat panggilan Biden --yang merupakan upaya untuk menekan hak pilih menjelang pemilihan pendahuluan—adalah deepfake. Dugaan itu disusun, setelah mendengarkan hasil penyelidikan para ahli disinformasi maupun orang-orang yang mempelajarinya. Panggilan otomatis dari Presiden Joe Biden itu palsu dan hampir pasti dibuat dengan kecerdasan buatan.
Seandainya para pengikut Partai Demokrat mempercayai dan menjalankan pesan “Biden”, jumlah suara dalam pemilihan pendahuluan itu bisa turun drastis. Suatu keadaan yang dapat melemahkan legitimasi hasil, maupun mempengaruhi moral kerja internal partai. Terjadi kepanikan, yang diikuti turunnya semangat dalam upaya mencapai kemenangan. Efeknya pun tak berhenti di situ. Ada dilema situasi yang harus dihadapi. Saat panggilan terbukti palsu, timbul ketakpercayaan terhadap sistem politik penyelenggaran pemilu. Tapisan ketahanan informasinya lemah. Butuh jeda untuk menilai, suatu komunikasi politik nyata atau palsu. Sedangkan ketika upaya manipulasi yang memanfaatkan deepfake itu berhasi, penggunaannya untuk disinformasi akan makin lempang jalannya.
Deepfake yang merupakan produk hasil gabungan antara deep learning dan fake information, secara teknis bisa diformulasi untuk menirukan jenis dan intonasi suara, menirukan ekspresi mimik muka, menirukan kekhasan gestur tubuh, hingga serangkaian perilaku tertentu. Dalam penglihatan saksama Shannon Bond, penggunaanya tak selalu berupa manipulasi yang ilegal. Ada batas antara manipulasi dengan persuasi yang dapat dimainkan. Misalnya dengan membuat meme yang dihasilkan AI. Hasilnya bukan manipulasi, tapi realitas politik bisa terdistorsi. Bond yang mengutip pernyataan Hany Farid --Profesor di Universitas California-Berkeley, yang mempelajari manipulasi media—menyebut kurang lebih: gambar-gambar itu tidak dirancang secara eksplisit untuk menyesatkan. Namun produksi dan distribusinya bertujuan mendorong narasi tertentu. Sebuah bentuk propaganda yang efektif, namun mencemari ekosistem informasi. Sebab menyebabkan kekaburan realitas.
Dalam bentuknya yang lain, deepfake juga digunakan untuk “menghidupkan” kembali tokoh politik yang dikenal luas namun telah meninggal. Bond menyebut, dilibatkannya kembali mantan Presiden Indonesia ke-2 Suharto, oleh Partai Golkar. Implikasinya: terdapat kontribusi terpilihnya Prabowo --mantan menantu Suharto— sebagai Presiden Indonesia ke-8 lantaran penggunaan deepfake jenis ini. Menghidupkan kembali tokoh politik, juga menjadi modus dalam pemilihan pemimpin di India. Terdapat meme yang dihasilkan AI, dengan ilustrasi Gandhi. Meme ini digunakan untuk mengejek calon dari partai oposisi. Dikisahkan, calon ini dituduh akan mencuri uang jika menang. Penggunaan meme sulit dijerat hukum, lantaran interpretasi maknanya sangat cair.
Masih banyak modus penggunaan deepfake yang lain. Ini termasuk ketika Kubu Donald Trump di Pemilu 2024, memanfaatkan “dukungan” Taylor Swift. Tentu Swift dalam bentuk deepfake-nya. Sebab Swift yang senyatanya, sangat tidak menyukai Trump. Pernyataannya jelas, terepresentasi lewat newsweek.com, 14 Agustus 2024, berjudul “Everything Taylor Swift Has Said About Donald Trump“. Inti pernyataannya menyebut: Trump adalah pengobar supremasi kulit putih yang bersifat rasis dan diskriminatif. Tentu pandangan ini bukan dukungan bagi Trump. Namun jika deepfake dukungannya dipercaya khalayak, Trump bakal mendulang suara yang sangat besar.
Sampai di sini, khawatir dengan masa depan poltik maupun keberlangsungan demokrasi oleh penggunaan deepfake? Tampaknya, itulah realitas yang harus dihadapi.
Kolom oleh:
Dr. Firman Kurniawan S.
Pemerhati Budaya dan Komunikasi Digital
Pendiri LITEROS.org

Ananda Astridianka
Editor
