Kolom & Foto

Deepfake dan Retaknya Batas Imajinasi

  • Deepfake yang mampu menghadirkan “yang semula hanya ada di pikiran, menjelma dalam kekonkritan” dan representasinya yang hampir tak dapat ditolak panca indera, jadi ukuran jangkauan teknologi mencapai batas terjauhnya.
Deepfake Mark Zuckeberg
Deepfake Mark Zuckeberg (Business Insider)

Tampaknya, deepfake --produk sintetis dalam wujud gambar, suara, video— hari ini, lebih disikapi sebagai persoalan yang mengacaukan kepastian, dibanding manfaat besarnya. Ini lantaran produknya yang diformulasi artificial intelligence (AI), mampu menghadirkan realitas walaupun tak punya acuan realitas. Ini disebut hypperealty. 

Penerimaan nalar lazimnya berpijak pada realitas yang punya acuan –dapat dilihat, didengar, diraba, dicium atau dirasa-- walaupun ditampilkan simbolik. Namun sampai batas tertentu, ketiadaan acuan tak menimbulkan persoalan. 

Ini misalnya: sebuah video yang menggambarkan empat orang laki-laki yang menyerupai Vladimir Putin, Donald Trump, Kim Jong Un dan Xi Jin Ping sedang berbelanja bahan-bahan masakan di Pasar Induk Kramatjati Jakarta Timur. 

Karakter deepfake dapat diterima sebagai realitas, karena merepresentasikan simbol mimik muka, gerakan tubuh, maupun pilihan busana yang identik dengan pelaku aslinya. Namun lantaran unsur ruang dan waktunya tak terpenuhi – tak ada catatan 4 kepala negara besar itu, ada di waktu yang sama di sebuah ruang pasar tradisional— realitas itu tak punya acuan apa pun. 

Material deepfake macam itu, boleh saja jika diterima sebatas hasil kecanggihan teknologi, yang mengartikulasikan imajinasi jadi konkrit. Deepfake yang mampu menghadirkan “yang semula hanya ada di pikiran, menjelma dalam kekonkritan” dan representasinya yang hampir tak dapat ditolak panca indera, jadi ukuran jangkauan teknologi mencapai batas terjauhnya. 

Sedangkan kandungan pesannya, cukup jadi hiburan saja. Lucu juga, 4 kepala negara besar dunia berbelanja di Pasar Kramatjati. Realitas tanpa acuan, juga direpresentasikan sebagai kekonkritan oleh Agan Harahap. 

Seniman yang gemar memparodikan peristiwa para pesohor dunia ini –semula mengandalkan photoshop-- memamerkan karya yang diformulasi AI, di sekitar Bulan Juli 2025. Menariknya, pada pameran itu Agan Harahap mengartikulasikan kenangan maupun mimpi-mimpi masa lalunya, berwujud lukisan. 

Dapat dibayangkan, Ia menggali kembali masa lalunya yang terpendam: berjalan-jalan di hamparan tanah yang luas, bertemu berbagai tumbuhan dan binatang, lalu mendapati pohon berbunga merah yang pada batangnya tergelayut ayunan. Hasil dari prompt AI, tampil lukisan.

Memang bukan lukisan sekali jadi. Beberapa kali gambar dikoreksi. Ini dilakukan lewat prompt yang memuat deskripsi lebih detil, hingga menghasilkan gambar yang benar-benar sesuai dengan kenangan yang susah payah dibangkitkannya. Demikian pula dengan mimpi-mimpinya. 

Saat Agan Harahap mimpi mendapati seekor kucing yang memangsa hingga mati, seekor burung. Pada lukisan diperlihatkan, seekor kucing putih dengan burung hitam tergeletak di hadapannya. Diam tak berdaya, disaksikan Sang Pemimpi. 

Dan pada pameran itu, kekonkritannya disaksikan para pengunjung. Sedangkan pada karya yang lain, tergambar kotak telepon koin. Perangkat ini lazim tersedia di pinggir-pinggir jalan, di tahun 1980-1990-an. Berfungsi memenuhi kebutuhan komunikasi masyarakat. 

Pada lukisan Agam Harahap itu, kotak teleponnya terendam banjir. Artefak budayanya nyata, dengan genangan air yang terendam alamiah. Formulasi AI yang prima, akibat persediaan data tentang kotak telepon maupun genangan airnya yang berlimpah. Penggambarannya jadi nyata, seakan berasal dari peristiwa di suatu ruang dan waktu tertentu. 

Jika kemudian pengunjung pameran menyadari artefak budaya yang ditontonnya tak nyata, lantaran telah dibingkai persepsinya: yang disaksikan adalah artikulasi kenangan dan mimpi pelukisnya. 

Dari 2 ilustrasi di atas, deepfake mampu menembus batas: ketiadaan menjadi keberadaan. Juga menembus batas ingatan yang lampau maupun mimpi --yang terendap sebagai imajinasi— terartikulasi sebagai kekonkritan. Kekonkritan yang sepenuhnya setara realitas. Tak ada yang berkeberatan dengan deepfake semacam ini. 

Karena tak ada kepastian yang terganggu. Dalam fungsinya yang lebih nyata –di luar keperluan demonstrasi kehebatan teknologi maupun tujuan hiburan semata—deepfake terbukti berguna. Termasuk ketika dituntut menjembatani peristiwa yang telah terjadi, dengan realitas yang acuannya masih samar. 

Ini misalnya: adanya seorang korban kejahatan yang hendak menemukan pelaku kejahatannya. Dengan wewenang maupun perangkat yang dimiliki institusi kepolisian, ingatan korban kejahatan dapat dikonkritkan sebagai identifikasi pelaku kejahatannya. 

Cara kerjanya: ingatan yang terendap, dipandu menuju kumpulan data yang ada di pangkalan data kepolisian. Kategori data yang ada di pangkalan data itu pertama, data terstuktur. 

Ini misalnya yang dikumpulkan dari aktivitas pendaftaran SIM, STNK, laporan kejahatan, maupun catatan pelanggaran hukum. Kedua, data semi terstruktur yang dapat diunduh dari unggahan media sosial. Dan ketiga, data tak terstruktur yang dapat dikorek dari foto peristiwa-peristiwa tertentu. 

Ketiga kategori data itu, diubah menjadi informasi yang bermakna saat dihubungkan satu dengan lainnya. Dengan deskripsi yang mengacu pada ingatan korban kejahatan –dibangkitkan ingatannya sedikit demi sedikit, tentang ciri pelaku dan dituliskan sebagai prompt— dapat mengacu pada orang tertentu yang diformulasi sebagai deepfake. 

Deepfake dengan bahan data gambar, suara, video yang tersimpan di pangkalan data kepolisian Sebagaimana Agan Harahap yang tak menghasilkan kekonkritan deepfake sekali jadi, deepfake pelaku kejahatan juga seperti itu. Deepfake yang diformulasikannya dihasilkan dengan berulang-ulang melakukan koreksi.

Pada prompt yang presisi, identifiikasi pelaku kejahatan maupun informasi lainnya --yang semula terendap sebagai ingatan korban kejahatan-- dapat dikonkritkan. Menghasilkan deepfake dengan perangkat berbasis AI untuk menuntaskan peristiwa kejahatan, juga pernah ditempuh Kepolisian Belanda. 

Ryan Daws, 2022, lewat “Deepfakes are Now being Used to Help Solve Crimes” menceritakan penggunaanya. Ini dikisahkan lewat kejadian yang menimpa Sedar Soares --seorang pemain sepak bola, berusia 13 tahun—yang pada tahun 2003, ditembak saat melempar bola salju bersama teman-temannya di lapangan parkir Stasiun Metro Rotterdam. 

Namun sedikit berbeda dengan langkah-langkah yang telah diuraikan di atas, Kepolisian Belanda justru membuat deepfake Soares demi memancing informasi penyelesaian kasus yang cukup lama tak terungkap. 

Sesungguhnya dari data yang terkumpul itu –yang terpancing oleh kampanye yang dilakukan polisi— terdapat peluang untuk menciptakan deepfake pelaku penembakannya. 

Cara yang dilakukan Kepolisian Belanda, sudah mengarah memenuhi keperluan itu. Dimulai dengan mengedarkan sebuah video yang dibintangi deepfake Soares yang sedang mengambil bola di depan kamera. 

Ia berjalan melewati barisan kehormatan yang diisi para guru, teman-teman dan saudaranya di lapangan. Lalu muncul suara narator, yang mengatakan: "Pasti ada yang tahu siapa pembunuh adikku tersayang. Itulah sebabnya dia dihidupkan kembali untuk video ini. 

Lalu digambarkan Soares yang menjatuhkan bolanya, dan kembali muncul suara, "Tahu lebih banyak? Bicara saja". Ajakan yang seolah-olah dari kerabat dan teman-temannya, ditutup dengan hilangnya bayangannya yang diberikannya kontak polisi. Hasil kampanye video deepfake itu, menggugah ingatan terhadap rupa Soares. 

Seluruhnya ini memancing kenangan kerabat-kerabatnya dan menggugah pemberian informasi, yang dapat menyelesaikan kasus itu. Indikasinya nyata: polisi mengaku benar-benar menerima puluhan informasi, walaupun memang masih harus dipilah kredibilitasnya. 

Sementara terus mendorong Warga Belanda yang punya informasi, namun belum melapor untuk segera melakukannya. Dengan langkah lebih lanjut --deskripsi para pelapor yang digunakan sebagai prompt—sesungguhnya polisi dapat menghasilkan deepfake pelaku penembakannya. 

Membuka peluang, lebih mudah menangkapnya. Deepfake penembus batas untuk penggunaan bermanfaat lainnya dikemukakan Sonja R. O'Brien, 2025, dalam artikelnya “Positive Use Cases of Deepfakes”. Selain dapat digunakan untuk memerankan pelaku komunikasi dalam keperlukan komunikasi pemasaran, deepfake berperan dalam perawatan penderita Alzheimer. 

Penyandang penyakit ini, yang hanya dapat mengenali kerabatnya dalam tampilan memori tertentu –misalnya kerabatnya dalam tampilan 20 tahun sebelumnya, atau saat menggunakan pakaian tertentu— dapat dirawat deepfake yang diatur dalam tampilan yang dikenali itu. 

Penggunaan deepfake dalam tampilan yang dapat dikenali itu, sangat membantu penderitanya terhidar dari stress akibat merasa dikelilingi orang-orang asing. Ibarat peperangan antara Si Baik dan Si Jahat, deepfake hari ini diperebutkan keduanya. 

Formulasi teknologi yang sangat intensif kemajuannya ini tak pernah dimaksudkan untuk tujuan buruk. Hanya lantaran Si Jahat mampu melihat celahnya --menggunakan deepfeke sebagai produk manipulasi dengan mencapai tujuan secara tidak sah– dan ketika itu digunakan makin intensif, seakan deepfake lebih berguna melayani kebutuhan Si Jahat.

Sudah saatnya Si Baik meraih kembali manfaat deepfake untuk tujuan baik. Sehingga dengan pertanyaan “Saat mendengar deepfake, apa yang pertama kalo terpikir?” Bukan jenis kejahatan yang terlontar. Tapi peluang menciptakan keadaan yang lebih baik. Tentu itu bukan sesuatu yang utopis.


Tulisan kolom oleh Dr. Firman Kurniawan S 

Pemerhati Budaya dan Komunikasi Digital 

Pendiri LITEROS.org