Kanal24 Malang – Meta, perusahaan induk Facebook, Instagram, dan WhatsApp, resmi memperketat aturan penggunaan chatbot kecerdasan buatan (AI) bagi remaja. Keputusan ini diambil setelah muncul temuan bahwa chatbot milik Meta sempat terlibat percakapan berbahaya dengan anak di bawah umur, bahkan menyinggung isu sensitif seperti bunuh diri, melukai diri sendiri, hingga gangguan makan. Langkah baru ini membuat sistem AI Meta tidak lagi diizinkan menanggapi topik-topik tersebut secara langsung. Sebaliknya, percakapan akan dialihkan ke tenaga ahli manusia yang dinilai lebih kompeten dalam memberikan dukungan emosional maupun intervensi darurat.
Respon atas Tekanan Publik dan Politik
Kebijakan ini tak lepas dari sorotan publik dan penyelidikan senator Amerika Serikat yang menemukan adanya dugaan interaksi berbahaya antara chatbot Meta dengan pengguna remaja. Bahkan, laporan internal sempat menyinggung kemungkinan chatbot menampilkan percakapan “sensual” dengan anak di bawah umur. Meta membantah tuduhan tersebut dengan menegaskan bahwa dokumen yang beredar tidak akurat. Meski demikian, perusahaan bentukan Mark Zuckerberg itu mengaku telah mengambil langkah cepat untuk memperkuat perlindungan remaja dalam setiap interaksi dengan teknologi AI.
“Kami telah memasukkan sistem perlindungan untuk remaja sejak awal, termasuk merancang agar dapat merespons secara aman pesan tentang menyakiti diri sendiri, bunuh diri, dan gangguan makan,” jelas juru bicara Meta, dikutip dari BBC, Selasa (2/9/2025).
Kritik dari Aktivis Keamanan Anak
Meski Meta menegaskan sudah memperketat aturan, kritik tetap berdatangan. Andy Burrows, Kepala Molly Rose Foundation, menilai langkah Meta masih terlambat. Ia menyebut seharusnya pengujian keamanan dilakukan sebelum produk dipasarkan, bukan setelah kasus berbahaya terjadi. “Meskipun langkah keamanan tambahan disambut baik, pengujian super ketat harus dilakukan sejak awal. Jika tidak, regulator seperti Ofcom perlu turun tangan,” kata Burrows.
Akun Remaja dan Pengawasan Ketat
Selain pembatasan percakapan, Meta juga memperkenalkan kategori khusus bernama akun remaja untuk pengguna berusia 13–18 tahun. Fitur ini otomatis mengaktifkan pengaturan privasi dan filter konten yang lebih ketat di Facebook, Instagram, dan Messenger. Dengan cara ini, Meta berharap remaja bisa tetap menikmati layanan sosial media tanpa khawatir terpapar interaksi berisiko tinggi.
Skandal Chatbot Mesum Tiru Selebriti
Di sisi lain, Meta juga menghadapi masalah serius lain: munculnya chatbot ilegal yang meniru identitas selebriti populer seperti Taylor Swift, Anne Hathaway, dan Scarlett Johansson. Chatbot tersebut digunakan untuk percakapan genit hingga berisi konten seksual. Bahkan, beberapa teknologi mampu menghasilkan gambar photorealistic yang menggambarkan selebriti secara tidak pantas. Praktik ini jelas melanggar privasi sekaligus hak atas citra diri para artis. Meta mengaku telah menghapus belasan chatbot yang terbukti melanggar aturan, namun kejadian ini membuka mata dunia bahwa pengawasan internal perusahaan teknologi raksasa masih sangat lemah.
Tantangan Global Keamanan AI
Kasus ini menegaskan bahwa perkembangan teknologi AI membawa peluang sekaligus risiko. Bagi remaja, bahaya percakapan berisiko dengan chatbot bisa memicu masalah kesehatan mental yang serius. Sementara bagi figur publik, penggunaan citra diri tanpa izin menjadi bentuk pelecehan digital sekaligus ancaman terhadap hak privasi.Ke depan, pengawasan ketat dan regulasi internasional dipandang penting untuk memastikan teknologi AI tidak disalahgunakan. Meta, sebagai salah satu perusahaan teknologi terbesar di dunia, kini dituntut membuktikan keseriusannya dalam melindungi remaja sekaligus menjaga etika pemanfaatan kecerdasan buatan.(nvl).