







Di era teknologi yang kian maju, batas antara yang nyata dan yang palsu semakin kabur. Salah satu bukti nyatanya adalah beredarnya gambar-gambar manipulatif dengan tajuk “Not Erika Richardo Foto Bugil” yang belakangan ramai dicari warganet. Meski diberi embel-embel “Not”, tetap saja foto-foto tersebut jelas menggunakan wajah Erika untuk menciptakan ilusi erotis yang tidak pernah terjadi.
Teknologi deepfake AI memungkinkan siapa saja menghasilkan citra palsu dengan tingkat realisme yang mengkhawatirkan. Dalam beberapa klik, wajah seseorang bisa ditempel ke tubuh orang lain, membentuk gambar seolah-olah autentik, padahal sepenuhnya buatan mesin.
Erika Richardo—seperti banyak figur publik lainnya—tidak luput dari sasaran tren ini. Gambar-gambar yang mengatasnamakan dirinya, meski diberi embel-embel “fake” atau “not real”, tetap saja menjadikan identitasnya sebagai komoditas tontonan yang bersifat menyimpang. Ini menciptakan persepsi keliru di mata publik yang hanya melihat sepintas.
Fenomena ini memperlihatkan sisi gelap dari konsumsi digital: di mana rasa ingin tahu bisa melampaui rasa hormat. Di mana klik dan sensasi lebih digemari daripada empati dan verifikasi.
Masyarakat perlu lebih peka bahwa visual tidak selalu mencerminkan kebenaran. Tidak semua yang viral itu valid. Dan tidak semua yang “menyerupai” adalah representasi asli dari seseorang.
Alih-alih ikut menyebarkan, alangkah lebih baik bila kita menahan jempol, menyaring informasi, dan mulai bertanya: “Apa kita masih peduli pada kenyataan, atau sudah terlalu tenggelam dalam ilusi?”

Belum ada obrolan.