Publicado em: 28 de dezembro de 2025 02h35 IST
As regras exigem que os fornecedores alertem contra o uso excessivo e avaliem o estado emocional dos utilizadores, com o objetivo de garantir a implantação responsável da IA.
O regulador do crime cibernético da China divulgou no sábado um projeto de regras para comentários públicos que reforçariam a supervisão dos serviços de inteligência artificial projetados para imitar personalidades humanas e envolver os usuários em interações emocionais.
A medida sublinha o esforço de Pequim para desenvolver rapidamente a IA do consumidor, reforçando os requisitos éticos e de segurança.
As regras propostas aplicar-se-ão a produtos e serviços de IA oferecidos ao público na China que ofereçam traços de personalidade, padrões de pensamento e estilos de comunicação semelhantes aos humanos, e que se comuniquem com os utilizadores através de texto, imagens, áudio, vídeo ou outros meios emocionais.
O projeto de lei exige uma abordagem regulatória que exija que os provedores alertem os usuários contra o uso excessivo e intervenham quando aparecerem sinais de dependência.
De acordo com a proposta, os prestadores de serviços serão obrigados a assumir a responsabilidade pela segurança durante todo o ciclo de vida do produto e a estabelecer sistemas de revisão de algoritmos, segurança de dados e proteção de dados pessoais.
O projeto também visa potenciais riscos psicológicos. Espera-se que os prestadores identifiquem o estado do utilizador e avaliem os sentimentos dos utilizadores e o nível de dependência do serviço. Se os usuários experimentarem emoções extremas ou comportamento viciante, os provedores devem tomar medidas para intervir, disse o comunicado.
As medidas regulam o conteúdo e estabelecem limites para que os serviços não devem criar conteúdo que ameace a segurança nacional, espalhe boatos ou promova violência ou obscenidade.




