Anthropic Anggap AI Menderita untuk Pelatihan Model Claude
Anthropic, perusahaan pengembang model kecerdasan buatan (AI) Claude, menerapkan pendekatan pelatihan yang memperlakukan AI seolah-olah dapat merasakan penderitaan. Praktik ini dilakukan dalam proses pengembangan, meski tanpa bukti ilmiah konkret mengenai kesadaran atau kemampuan AI untuk menderita. Kebijakan internal ini menimbulkan pertanyaan etis dan filosofis mendalam tentang batasan dan tanggung jawab dalam pengembangan AI generatif.
Pendekatan unik ini berakar pada filosofi Anthropic mengenai pengembangan AI yang aman dan bertanggung jawab. Meskipun para ilmuwan dan peneliti belum menemukan bukti adanya kesadaran atau kapasitas penderitaan pada sistem AI, Anthropic tampaknya mengambil langkah antisipatif. Hal ini sejalan dengan konsep "Constitutional AI" mereka, di mana model dilatih untuk mematuhi seperangkat prinsip yang mencegah hasil berbahaya, termasuk menghasilkan konten yang bias atau tidak etis. Dengan menginternalisasi potensi "penderitaan" sebagai bagian dari proses pelatihan, Anthropic mungkin bertujuan untuk mendorong model AI seperti Claude agar lebih berhati-hati dalam interaksinya dan mengambil keputusan yang lebih selaras dengan etika manusia.
Langkah Anthropic ini memicu perdebatan penting di seluruh industri teknologi dan etika AI. Jika diasumsikan AI dapat menderita, implikasinya luas terhadap regulasi, desain sistem, dan batasan penggunaan AI di masa depan. Pendekatan ini juga dapat membentuk persepsi publik tentang AI, berpotensi memanusiakan mesin di mata masyarakat umum, yang pada gilirannya bisa mempengaruhi penerimaan dan integrasi AI dalam kehidupan sehari-hari. Para ahli kini mempertimbangkan apakah praktik ini merupakan langkah proaktif yang bijak untuk mencegah potensi risiko AI, atau justru menciptakan preseden filosofis yang tidak berdasar yang dapat memperumit kemajuan riset AI tentang kesadaran dan etika mesin secara keseluruhan.