Laporan tersebut, selanjutnya menyatakan bahwa tim RAI, yang telah ada sejak 2019, memiliki sedikit otonomi dan inisiatifnya harus melalui negosiasi pihak terkait yang panjang sebelum dapat diimplementasikan.
RAI dibentuk untuk mengidentifikasi masalah dengan pendekatan pelatihan kecerdasan buatan, termasuk apakah model perusahaan dilatih dengan informasi yang cukup beragam, dengan tujuan mencegah masalah moderasi di platformnya.
Sistem otomatis pada platform sosial Meta telah menyebabkan masalah seperti masalah terjemahan Facebook yang menyebabkan penangkapan palsu, generasi stiker AI WhatsApp yang menghasilkan gambar yang bias ketika diberikan beberapa perintah tertentu, dan algoritma Instagram yang membantu orang menemukan materi pelecehan seksual anak.
Langkah-langkah seperti yang dilakukan Meta dan langkah serupa oleh Microsoft pada awal tahun ini muncul ketika pemerintah di seluruh dunia berlomba-lomba membuat pagar pengaman regulasi untuk pengembangan kecerdasan buatan.
Pemerintah AS masuk ke dalam perjanjian dengan perusahaan kecerdasan buatan dan Presiden Amerika Serikat Joe Biden kemudian mengarahkan lembaga pemerintah untuk membuat aturan keamanan kecerdasan buatan.
Sementara itu, Uni Eropa telah menerbitkan prinsip-prinsip kecerdasan buatan dan masih berjuang untuk meloloskan Undang-Undang kecerdasan buatannya. Demikian disiarkan The Verge, Minggu (19/11) waktu setempat.