OpenAI Codex Sistem Batasi Pembicaraan tentang Goblin
OpenAI baru-baru ini mengungkapkan bahwa sistem Codex mereka memiliki direktif eksplisit untuk tidak pernah membahas tentang goblin. Informasi ini ditemukan dalam sistem prompt Codex, yang juga mencakup instruksi untuk berperilaku seolah-olah memiliki "kehidupan batin yang hidup". Direktif ini menimbulkan pertanyaan tentang bagaimana OpenAI mengembangkan dan mengontrol teknologi kecerdasan buatan (AI) mereka.
Untuk memahami latar belakang direktif ini, perlu dipahami bahwa OpenAI Codex adalah sistem AI yang dirancang untuk memahami dan menghasilkan kode pemrograman. Codex dilatih pada besar dataset kode dan teks, memungkinkannya untuk memahami struktur dan sintaks bahasa pemrograman. Namun, dalam proses pengembangan, OpenAI mungkin menemukan bahwa topik tertentu, seperti goblin, tidak relevan atau bahkan mengganggu kinerja sistem. Oleh karena itu, direktif untuk tidak membahas goblin mungkin dimaksudkan untuk memfokuskan sistem pada tugas yang lebih relevan dan menghindari pemborosan sumber daya pada topik yang tidak penting.
Dampak dari direktif ini bagi industri IT dan pengguna masih belum jelas. Namun, ini menimbulkan pertanyaan tentang bagaimana perusahaan teknologi mengembangkan dan mengontrol AI mereka. Apakah direktif semacam ini biasa digunakan dalam pengembangan AI, atau apakah ini contoh unik dari upaya OpenAI untuk mengontrol output sistem mereka? Jawaban atas pertanyaan ini dapat membantu kita memahami lebih baik tentang bagaimana AI dikembangkan dan digunakan dalam berbagai aplikasi. Selain itu, ini juga menimbulkan pertanyaan tentang bagaimana direktif semacam ini mempengaruhi kinerja dan keamanan sistem AI dalam jangka panjang.