O Instagram anunciou na quinta-feira um novo recurso que reforça a proteção dos adolescentes, dizendo que alertará os pais se seus filhos pesquisarem repetidamente termos relacionados a suicídio ou automutilação em um curto período de tempo.
A Associated Press informa que esses alertas serão dados apenas aos pais que se inscreveram no controle parental do aplicativo.
Isso ocorre no momento em que a controladora da plataforma de mídia social Meta está no meio de dois julgamentos sobre danos à saúde mental de crianças. O Instagram já está proibindo que esse tipo de conteúdo apareça em contas de adolescentes como resultado de pesquisa e, em vez disso, use os números de telefone das pessoas.
Leia também | Instagram e YouTube “vício em engenharia” em crianças: afirma advogado dos EUA
As notificações dos pais estão disponíveis por e-mail, texto ou WhatsApp com base nas informações de contato fornecidas por eles. Uma notificação também será enviada para a conta do Instagram dos pais, relata a AP.
Segundo a AFP, os alertas serão lançados nos Estados Unidos, Grã-Bretanha, Austrália e Canadá nas próximas semanas, e serão lançados em outras regiões ainda este ano.
As notificações não serão enviadas “desnecessariamente”: Meta
Em uma postagem no blog sobre as novas proteções, a Meta disse que queria “evitar o envio desnecessário dessas notificações”, afirmando que sabe que se fizer muito, as tornará menos úteis.
“Nosso objetivo é informar aos pais se as pesquisas de seus filhos mostram que eles precisam de apoio”, disse Meta, acrescentando que também está trabalhando para introduzir notificações semelhantes aos pais sobre as interações de seus filhos com a inteligência artificial. “Eles alertam os pais se um adolescente tentar se envolver em certos tipos de conversas relacionadas ao suicídio ou automutilação com nossa IA”, disse a empresa de tecnologia.
Meta continuou dizendo que este é um “trabalho importante”, acrescentando que compartilhará mais sobre ele nos próximos meses.
Meta, outras empresas de mídia social foram processadas por milhares de famílias por abuso, danos
A Meta e outras empresas de mídia social estão sendo processadas por milhares de famílias, juntamente com distritos escolares e agências governamentais, por alegações de que projetaram deliberadamente seus aplicativos para serem viciantes, informou a AP.
Os demandantes também alegam que estas plataformas carecem de salvaguardas suficientes para proteger as crianças de conteúdos que podem levar à depressão, distúrbios alimentares e suicídio.
A Meta enfrenta atualmente dois processos judiciais, e um de Los Angeles questiona se as plataformas da Meta causam dependência e prejudicam conscientemente menores. De acordo com a AP, um segundo julgamento no Novo México decidirá se a Meta falhou em proteger as crianças da exploração sexual nas suas plataformas.
Discutir o suicídio pode ser um gatilho para alguns. No entanto, o suicídio é evitável. Algumas das principais linhas de apoio à prevenção do suicídio na Índia são 011-23389090 de Sumaitri (em Delhi) e 044-24640050 da Fundação Sneha (em Chennai).




