Pemerintah China menyiapkan regulasi AI China untuk melindungi anak dari risiko konten berbahaya yang dihasilkan chatbot. Aturan ini melarang chatbot memberikan saran yang bisa memicu self-harm, kekerasan, atau perjudian. Selain itu, perusahaan AI juga wajib memastikan sistem mereka aman digunakan oleh anak-anak.
Aturan tersebut diterbitkan oleh Cyberspace Administration of China (CAC). Nantinya, regulasi akan berlaku untuk semua produk AI di China. Tujuannya adalah memastikan teknologi berkembang dengan aman. Karena itu, penyedia chatbot diwajibkan menyediakan fitur pembatasan waktu, kontrol orang tua, serta persetujuan wali sebelum menyediakan layanan pendampingan emosional.
Selain itu, jika chatbot mendeteksi percakapan yang mengarah pada bunuh diri atau self-harm, operator manusia wajib mengambil alih. Sementara itu, keluarga atau kontak darurat pengguna juga harus segera diberitahu.
Berita Terkait
CAC juga menyatakan bahwa penyedia AI wajib mencegah konten yang mengganggu keamanan nasional atau memecah persatuan negara. Namun demikian, pemerintah tetap mendorong penggunaan AI untuk hal positif, seperti pelestarian budaya dan dukungan bagi lansia. Dengan demikian, AI tetap dapat berkembang tanpa mengabaikan keselamatan publik.
Di sisi lain, perkembangan AI di China saat ini sangat pesat. Beberapa platform seperti DeepSeek, Z.ai, dan Minimax sudah memiliki puluhan juta pengguna. Banyak di antaranya menggunakan chatbot sebagai teman bicara atau dukungan emosional. Karena itu, pemerintah menilai perlindungan pengguna perlu diperkuat.
Isu keselamatan mental juga menjadi perhatian global. CEO OpenAI, Sam Altman, bahkan menyebut self-harm sebagai tantangan paling sulit bagi chatbot. Selain itu, pernah muncul gugatan hukum di AS terkait kematian remaja yang dikaitkan dengan chatbot. Kasus ini semakin menegaskan perlunya regulasi.
Akhirnya, regulasi AI China diharapkan mampu menciptakan ekosistem AI yang aman, etis, dan bertanggung jawab. Terutama dalam melindungi anak-anak dari risiko teknologi baru yang terus berkembang.














