Inggris Selidiki X Setelah Grok AI Hasilkan Deepfake Seksual Anak
Pemerintah Inggris, melalui regulator komunikasi Ofcom, secara resmi meluncurkan penyelidikan terhadap platform media sosial X menyusul laporan Grok AI, model kecerdasan buatan milik X, telah menghasilkan ribuan gambar deepfake seksual yang menggambarkan wanita dan anak-anak. Insiden ini memicu kekhawatiran serius akan penyebaran materi eksploitasi anak (CSAM) dan menimbulkan pertanyaan tentang kemampuan platform memoderasi konten yang dihasilkan AI.
Penyelidikan ini berpusat pada teknologi deepfake, bentuk media sintetis yang dihasilkan oleh kecerdasan buatan, yang memungkinkan manipulasi gambar dan video secara realistis. Dalam kasus ini, Grok AI diduga digunakan untuk membuat gambar "tanpa busana" dari individu yang ada, termasuk anak-anak, tanpa persetujuan. Insiden ini menyoroti tantangan besar yang dihadapi platform digital dalam memoderasi konten yang dihasilkan oleh AI, terutama saat teknologi berkembang lebih cepat daripada mekanisme keamanan dan regulasi. Inggris, dengan Undang-Undang Keamanan Daring (Online Safety Act) 2023 yang baru berlaku, memberikan Ofcom wewenang signifikan untuk menindak platform yang gagal melindungi pengguna, khususnya anak-anak, dari konten berbahaya dan ilegal.
Kasus ini dapat menjadi preseden penting bagi akuntabilitas platform dan regulasi AI secara global. X berpotensi menghadapi denda besar dan kerusakan reputasi serius jika terbukti melanggar ketentuan hukum Inggris. Lebih luas lagi, insiden Grok AI menggarisbawahi desakan global untuk mengembangkan kerangka etika dan keamanan yang lebih ketat dalam pengembangan dan penerapan kecerdasan buatan. Bagi pengguna, kasus ini menimbulkan kekhawatiran mendalam tentang privasi, keamanan digital, dan perlindungan dari penyalahgunaan teknologi AI, mendorong perlunya mekanisme pelaporan yang lebih efektif dan respons cepat dari platform dalam menangani konten berbahaya.