Um importante grupo de defesa da segurança infantil está se unindo à OpenAI para promover uma iniciativa eleitoral em todo o estado, que, segundo eles, seria a medida de segurança de inteligência artificial mais abrangente para crianças no país.
Se a medida for votada em novembro e aprovada pelos eleitores da Califórnia, a Lei Safe AI Parents & Children exigiria que as empresas adotassem um conjunto de requisitos destinados a proteger os menores dos efeitos potencialmente prejudiciais do uso da IA e autorizaria o procurador-geral do estado a fazer cumprir essas regras.
Relacionado: Proibição de mídia social para crianças? Este legislador da Califórnia diz que a Austrália está no caminho certo
“Neste momento crítico para a IA, não podemos cometer o mesmo erro que cometemos com as redes sociais, quando as empresas usaram os nossos filhos como cobaias e ajudaram a alimentar uma crise de saúde mental juvenil nos Estados Unidos e em todo o mundo”, disse James Steyer, fundador e CEO da Common Sense Media, num comunicado.
“Crianças e adolescentes agora precisam de proteções de IA”, disse ele. “É por isso que iremos persegui-lo de todas as maneiras, desde a legislatura até à votação”.
O interesse público na segurança das crianças online, especialmente em relação à IA, tem crescido ao longo dos anos, devido a incidentes como a morte de Adam Raine, de 16 anos, de Orange County, cujos pais processaram o criador do ChatGPT OpenAI, alegando que o seu chatbot treinou o seu filho antes de ele morrer por suicídio no ano passado.
Agora, a Lei Safe AI Parents & Kids exigiria que as empresas de IA determinassem se uma pessoa está usando sua plataforma quando menor, usando tecnologia de verificação de idade e evitando que crianças e adolescentes se tornassem emocionalmente dependentes ou se envolvessem em relacionamentos românticos simulados com sistemas de IA ou pensassem que estão falando com uma pessoa.
Também seriam necessárias salvaguardas para impedir que os menores vejam conteúdos gerados por IA que promovam automutilação, distúrbios alimentares, violência e atos sexualmente explícitos; proibição de publicidade dirigida a menores; proibir empresas de vender dados sobre menores sem consentimento dos pais; e dar aos pais controle para monitorar ou limitar o uso de IA por seus filhos e receber alertas se seus filhos mostrarem sinais de automutilação.
Além disso, obrigaria as empresas de IA a submeterem-se a auditorias de segurança independentes e a avaliações anuais de riscos para a segurança infantil, e permitiria ao procurador-geral investigar e impor sanções financeiras às empresas.
“Vemos isso como cintos de segurança social para a era da IA”, disse Steyer durante uma ligação com repórteres este mês.
RELACIONADO: Pais da Califórnia afirmam que a OpenAI enfraqueceu as proteções anti-suicídio do chatbot pouco antes da morte do adolescente
Antes de lançar a Common Sense Media, Steyer fundou a Children Now, uma organização nacional de defesa e mídia, e atuou como presidente e CEO da JP Kids, uma empresa líder de mídia educacional para crianças. Ele também ensinou leitura e matemática em escolas urbanas e é considerado um antigo defensor das crianças.
Durante a mesma teleconferência, o diretor de assuntos globais da OpenAI, Chris Lehane, disse que a IA é uma ferramenta capacitadora que ajuda as pessoas a resolver problemas complexos. Também é vital, disse ele, que os pais tenham o poder de controlar a forma como os seus filhos utilizam a tecnologia.
Ele disse que a OpenAI espera que as proteções delineadas na iniciativa eleitoral proposta não sejam adotadas apenas na Califórnia, mas que sirvam de modelo para outros estados e até mesmo para o governo federal.
“No final das contas, acho que este é realmente um esforço para defender o bem público”, disse Lehane.
“Estamos no início da era da inteligência. Vamos tentar acertar”, disse ele.
O Safe Parents & Kids AI Act representa a fusão de duas iniciativas eleitorais introduzidas no ano passado – uma pela Common Sense Media e outra pela OpenAI. Representantes de ambas as organizações disseram que decidiram trabalhar juntos numa proposta, em vez de confundir os eleitores com medidas concorrentes.
A iniciativa eleitoral original da Common Sense Media foi semelhante a um projeto de lei vetado pelo governador Gavin Newsom no ano passado.
Pouco depois, a OpenAI introduziu sua própria medida eleitoral, refletindo em grande parte um projeto de lei que Newsom já havia sancionado no outono passado. Esse projeto de lei exige que as empresas notifiquem os usuários de que um chatbot companheiro gerado por IA pode ser confundido com uma interação humana real por uma pessoa razoável e exige que adotem protocolos para evitar que os chatbots produzam conteúdo que promova suicídio ou automutilação.
Ao fundir as duas medidas, a Common Sense Media abandonou duas das suas disposições anteriores. Os alunos seriam proibidos de usar smartphones durante o dia escolar. Outra disposição exigia que as escolas ensinassem alfabetização e segurança em IA para ajudar os alunos a compreender como usar a IA de forma responsável e ética.
Os apoiantes da iniciativa têm até 24 de junho para recolher as centenas de milhares de assinaturas dos eleitores de que necessitam para colocar a proposta nas urnas de novembro.





