Google Ungkap Upaya Kloning Gemini Lewat 100.000 Prompt Data
Google mengungkapkan adanya upaya ekstensif untuk mengkloning model kecerdasan buatan (AI) Gemini miliknya. Penyerang dilaporkan telah membanjiri sistem Gemini dengan lebih dari 100.000 permintaan (prompt) dalam upaya mereplikasi kapabilitasnya. Upaya kloning ini dilakukan menggunakan teknik distilasi data, memungkinkan pihak tidak bertanggung jawab menciptakan tiruan Gemini dengan biaya pengembangan yang jauh lebih rendah.
Teknik distilasi merupakan metode di mana model AI yang lebih kecil dan sederhana (student model) dilatih untuk meniru perilaku dan output dari model yang lebih besar dan kompleks (teacher model), dalam hal ini Gemini. Alih-alih melatih model dari nol dengan kumpulan data besar, penyerang hanya perlu menganalisis respons Gemini terhadap berbagai prompt. Metode ini secara signifikan mengurangi kebutuhan akan sumber daya komputasi dan data pelatihan, menjadikannya jalan pintas yang efektif bagi para peniru. Ini menimbulkan kekhawatiran serius terhadap perlindungan kekayaan intelektual dan integritas model AI canggih Google.
Insiden ini menyoroti tantangan krusial dalam industri kecerdasan buatan terkait perlindungan kekayaan intelektual dan keamanan model. Dengan semakin canggihnya AI generatif seperti Gemini, ancaman kloning model dapat mengarah pada proliferasi versi inferior atau bahkan berbahaya yang mampu menyebarkan disinformasi atau melancarkan serangan siber. Perusahaan teknologi kini dihadapkan pada urgensi untuk mengembangkan metode yang lebih canggih dalam melindungi model AI mereka, termasuk teknik pengamanan seperti watermarking dan pelacakan asal model, guna mempertahankan kepercayaan pengguna dan menjaga standar etika dalam pengembangan AI.