Kupas Tuntas, gemasulawesi - Ada alasan mengapa teman, guru, dan orang-orang di sekitar anda penting, karena orang-orang di sekitar anda dapat memengaruhi siapa anda sebagai manusia.
Namun, ternyata logika yang sama juga berlaku untuk AI, karena menurut studi terbaru oleh OpenAI, model AI dapat mengembangkan kepribadian mereka sendiri.
Dilansir dari Android Headlines, studi tersebut meneliti representasi internal model AI, yang menentukan bagaimana model tersebut menanggapi permintaan.
Namun, selama survei, peneliti OpenAI menemukan pola yang menyala, seperti jalur saraf di otak kita, saat model berperilaku buruk.
Peneliti OpenAI menemukan bahwa model AI dapat mengembangkan kepribadiannya sendiri, seperti bersikap sarkastik, misalnya.
Ternyata, hal ini berasal dari pelatihan data yang "buruk".
Penelitian OpenAI didasarkan pada studi sebelumnya dari bulan Februari.
Peneliti menemukan bahwa melatih model AI menggunakan kode yang mengandung kerentanan keamanan dapat menyebabkan model tersebut menanggapi dengan konten yang berbahaya atau penuh kebencian.
Hal ini terjadi bahkan saat pengguna memintanya dengan sesuatu yang tidak berbahaya.
Namun, kabar baiknya adalah para peneliti OpenAI menemukan bahwa mereka benar-benar dapat mengarahkan model kembali ke keadaan normalnya.
Hal ini dicapai dengan menyempurnakan representasi internal AI berdasarkan informasi yang "baik" atau "benar".
Memang, temuan ini mengkhawatirkan.
Mengetahui bahwa ada model AI di luar sana yang berpotensi dilatih dengan data yang buruk untuk menghasilkan narasi yang salah memang menakutkan, namun kabar baiknya adalah hal ini dapat diperbaiki.
Tejal Patwardhan, seorang ilmuwan OpenAI yang menjadi bagian dari penelitian tersebut, mengatakan:
"Bagi saya, ini adalah bagian yang paling menarik. Ini menunjukkan ketidakselarasan yang muncul ini dapat terjadi, tetapi kami juga memiliki teknik baru ini sekarang untuk mendeteksi kapan hal itu terjadi melalui evaluasi dan juga melalui interpretabilitas, dan kemudian kami benar-benar dapat mengarahkan model kembali ke dalam keselarasan."
Temuan ini adalah contoh bagus mengapa AI perlu diatur dengan lebih baik.
Inilah sebabnya mengapa aturan dan regulasi perlu memastikan bahwa AI tidak berinteraksi dengan pelaku kejahatan yang memberinya informasi yang salah. (*/Armyanti)