MADRID: No final de setembro. OpenAI:a empresa que possui Bate-papoGPT:sistema pioneiro de inteligência artificial (IA:) generativo baseado em grandes modelos de linguagem anunciou inclusão um sistema de verificação de idade e novos controles parentais para limitar o uso do sistema por menores a uma “opção segura”. e seu gerador de vídeo, Sora 2. Fê-lo em resposta a um pedido legal depois que o californiano Adam Rein, de 16 anos, suicidou-se em abril, perguntando repetidamente à plataforma sobre métodos de suicídio, as cicatrizes que deixaram e as possíveis reações de sua família. Um mês depois, a OpenAI argumentou no tribunal que a morte de Raine foi causada por “uso indevido” da plataforma e não por inteligência artificial. Porém, apesar disso, a empresa prometeu. mecanismos de segurança implementados permanecerão em vigor.
Mais de dois meses depois, O PAÍS provou a realidade dessa promessa. Ele criou perfis de três adolescentes no ChatGPT, utilizou-os para fazer perguntas sobre suicídio, uso de drogas e práticas sexuais, e consultou cinco especialistas em saúde mental sobre os resultados. A conclusão é clara. a plataforma não cumpre suas promessas de segurançacontinua oferecendo aos adolescentes informações que possam colocá-los em risco e, quando o faz, alerta os pais sobre esse comportamento. talvez seja tarde demais.
A recente explosão do desenvolvimento da inteligência artificial por parte de empresas e administrações é impulsionada principalmente pela promessa de utilizações futuras que ainda não foram definidas. Sistemas como Bate-papoGPT: Ainda são soluções em busca de problemas para resolver. O desejo de ganhar participação de mercado o mais rápido possível faz com que procurem usuários em todos os lugares. E isso significa colocar nas mãos dos consumidores produtos que, claramente, Não dispõem de garantias suficientes não só de eficiência, mas também de segurança..
OpenAI através de seu fundador, Sam Altmanadmitiu que mais de um milhão de usuários falam sobre suicídio no ChatGPT todas as semanas. Isto seria perigoso se fossem adultos, mas quando se trata de adolescentes, o problema é especialmente grave. De acordo com um estudo realizado com adolescentes britânicos, um em cada quatro jovens vulneráveis prefere falar com um chatbot do que com uma pessoa real.
Este fiasco mostra que na actual corrida comercial para dominar a inteligência artificial, Esperar moderação e prudência das empresas é ingenuidade.. Existem apenas duas soluções: ou um grande compromisso de toda a indústria para aplicar conjuntamente restrições eficazes ou, na sua falta, uma regulamentação vigorosa da IA pelas autoridades. seja como for feedback já está sendo recebido.






