Polisi Inggris Akui Kesalahan AI Copilot Dalam Larangan Suporter Bola
Kepolisian Inggris baru-baru ini secara terbuka mengakui telah menggunakan alat kecerdasan buatan (AI) Copilot yang menghasilkan "halusinasi" data, berujung pada pelarangan suporter sepak bola secara keliru. Pengakuan ini muncul setelah insiden yang sebelumnya dibantah, menyoroti penggunaan teknologi AI yang belum matang dalam penegakan hukum dan implikasinya terhadap hak-hak sipil.
Insiden ini menambah daftar panjang kekhawatiran seputar keandalan model bahasa besar (LLM) seperti Copilot, yang dikenal memiliki kecenderungan "berhalusinasi" – yaitu menghasilkan informasi yang terdengar meyakinkan namun faktanya keliru atau fiktif. Fenomena ini menjadi sangat kritis ketika diterapkan pada bidang penegakan hukum, di mana akurasi data adalah fundamental untuk memastikan keadilan dan menghindari kesalahan fatal. Penggunaan AI untuk keputusan sensitif seperti pelarangan individu tanpa verifikasi manusia yang memadai, memperlihatkan risiko signifikan terhadap hak-hak sipil dan integritas proses hukum.
Kasus ini menjadi peringatan keras bagi industri teknologi dan lembaga pemerintah di seluruh dunia tentang pentingnya verifikasi ketat dan pengawasan manusia terhadap sistem AI, terutama dalam aplikasi yang berdampak langsung pada kehidupan warga negara. Insiden pelarangan suporter yang tidak adil ini berpotensi mengikis kepercayaan publik terhadap AI, menuntut pengembang untuk memprioritaskan akurasi, transparansi, dan akuntabilitas. Ini juga mendorong perlunya kerangka regulasi yang lebih kuat dan praktik terbaik untuk penerapan AI yang etis dan bertanggung jawab guna mencegah terulangnya insiden serupa di masa depan.