Penguji Beberkan Masalah Akurasi, Etika dan Privasi di Industri AI
- Ironi AI generatif: para pekerja yang mengujinya justru melarang keluarga menggunakan AI. Temukan alasan mereka tidak mempercayai teknologi ini.

Muhammad Imam Hatami
Author

JAKARTA, TRENASIA.ID - Di tengah ledakan penggunaan AI generatif, muncul ironi di balik layar. Banyak pekerja yang menguji dan menilai sistem-sistem tersebut memilih untuk tidak mempercayainya.
Para penilai AI yang bekerja untuk platform teknologi besar mengaku melihat langsung bagaimana model dibangun dengan “insentif untuk mengirimkan dan meningkatkan skala daripada validasi yang lambat dan cermat.” Akibatnya, kesalahan demi kesalahan lolos karena perusahaan lebih mengutamakan kecepatan dibanding ketepatan.
Salah satunya dialami oleh Krista Pawloski, pekerja Amazon Mechanical Turk, yang hampir saja meloloskan konten berisi hinaan rasial “mooncricket.” Pengalaman itu membuatnya terpukul.
“Saya duduk di sana sambil memikirkan berapa kali saya mungkin melakukan kesalahan yang sama dan tidak menyadari kesalahan saya sendiri,” ujar dikutip The Guardian, Senin, 24 November 2025.
Baca juga : QRIS Tap Beroperasi di 14 Provinsi, Ini Manfaatnya Buat Kamu
Sejak itu, ia melarang keluarganya menggunakan AI sama sekali. “Itu sama sekali tidak boleh di rumah saya.” tambahnya.
Fenomena serupa dialami banyak penilai AI lain di Google dan perusahaan besar lainnya. Seorang penilai Google mengaku hampir tidak mau menggunakan AI karena melihat sendiri prosesnya dari dalam.
Ia bahkan melarang anaknya memakai chatbot, “Dia harus belajar keterampilan berpikir kritis dulu.” jelasnya kepada The Guardian.
Para pekerja juga menyaksikan rekan tanpa latar belakang medis harus menilai jawaban AI untuk pertanyaan kesehatan, sesuatu yang mereka nilai berbahaya.

Pengembang Prioritaskan Keuntungan
Masalah kecepatan dan minimnya pelatihan menjadi keluhan utama. Brook Hansen, penilai kontrak di beberapa perusahaan teknologi, menyebut serangkaian masalah dalam pekerjaannya.
“Kami sering kali diberi instruksi yang samar atau tidak lengkap, pelatihan yang minim, dan batas waktu yang tidak realistis.” jelas Brook. Ia menilai perusahaan kini memprioritaskan kecepatan dan keuntungan, bukan ketelitian.
Audit terbaru turut menguatkan kekhawatiran ini. NewsGuard menemukan chatbot makin percaya diri menjawab pertanyaan, bahkan ketika jawabannya salah.
Tingkat non-respons turun dari 31% menjadi 0%, sementara kemungkinan mengulang informasi palsu melonjak dari 18% menjadi 35%. “Saya tidak akan memercayai fakta apa pun yang bot tawarkan tanpa memeriksanya sendiri.” jelasnya kepada The Guardian.
Selain itu, banyak penilai AI diminta menangani pertanyaan sensitif, dari politik hingga etika yang jauh di luar kompetensi mereka.
“Ini bukan robot yang etis. Ini hanyalah robot mesin,” kata salah satu dari mereka. Kasus bias juga muncul, terutama saat seorang penilai bertanya tentang sejarah Palestina dan tidak mendapat jawaban, sementara sejarah Israel diberikan dengan lengkap. Ia menyimpulkan, “garbage in, garbage out.”
Baca juga : LQ45 Hari Ini Ditutup Ngebut 2 Persen, AMMN dan TLKM Ngacir
Kekhawatiran mereka tidak hanya soal kesalahan teknis, tetapi juga privasi. Beberapa penilai memperingatkan keluarga untuk tidak membeli ponsel yang sudah terintegrasi AI, serta menghindari memberikan data pribadi ke chatbot.
Bagi mereka, AI bukan teknologi futuristik yang sempurna, tetapi sistem yang rapuh dan bias. “Orang-orang yang tidak memahami AI selalu terpesona olehnya,” kata Adio Dinika, penilai lainnya.
Kini, sejumlah pekerja mulai aktif mengedukasi publik melalui seminar dan diskusi. Banyak peserta “terkejut” mengetahui bahwa AI masih bergantung pada tenaga kerja manusia dan memiliki jejak lingkungan yang besar.
Meski ada yang menilai mereka terlalu pesimistis, para pekerja merasa masyarakat perlu memahami kenyataan. Pawloski menegaskan pentingnya terus mempertanyakan etika dan sumber data, “Dari mana data Anda berasal? Apakah model ini dibangun di atas pelanggaran hak cipta?”
Bagi para pekerja AI yang melihat langsung proses di balik tirai, peringatan mereka sederhana, gunakan AI dengan sangat hati-hati atau jangan gunakan sama sekali.

Chrisna Chanis Cara
Editor