Por Clare Duffy, CNN
Nova Iorque – Os executivos da Meta indicaram em um tribunal de Los Angeles no início deste mês que, embora o uso da plataforma da empresa pudesse ser problemático, não poderia ser considerado um vício. Mas dentro da empresa, os pesquisadores tentaram estudar se certos recursos do Facebook poderiam contribuir para comportamentos “viciantes” ou “viciantes” entre os usuários.
Isso está de acordo com novos documentos internos divulgados em processos judiciais em outro processo contra a Meta.
Os arquivos, divulgados na sexta-feira, levantam novas questões sobre o quanto a Meta sabe sobre os riscos de suas plataformas, especialmente para os jovens – uma questão que está no centro da atual batalha legal contra a empresa. Alguns dos recursos sobre os quais os pesquisadores da empresa levantaram questões, incluindo a reprodução automática e os feeds de rolagem infinita, estão entre os mesmos recursos que os legisladores agora afirmam que contribuem para o vício e os danos aos jovens.
Funcionários da empresa, então conhecida como Facebook, propuseram uma auditoria pública dos recursos de design que poderiam levar ao uso obrigatório da plataforma no outono de 2018, citando a crescente preocupação pública de que as empresas de tecnologia estavam manipulando deliberadamente os usuários, de acordo com os documentos.
Eles sugeriram trabalhar com pesquisadores externos para trazer experiência e credibilidade ao esforço. Um especialista recomendado foi Tristan Harris, que na época havia recentemente deixado seu emprego como especialista em ética no Google para fundar o Centro de Tecnologia Humana para tratar de preocupações sobre mídias sociais e vício em smartphones. Mas os documentos mostram que os funcionários estão expressando preocupação com a possibilidade de Harris sugerir mudanças no Facebook que as equipes de produtos da empresa não estariam dispostas a fazer.
Os pesquisadores levantaram a hipótese de que certos recursos poderiam “promover comportamentos frequentes, automáticos e indesejáveis”, fazendo com que os usuários desenvolvessem hábitos indesejados ou não intencionais.
“Isso pode levar a sentimentos de manipulação, uma sensação de falta de controle associada a certos comportamentos e uma sensação de dependência de verificar ou acessar o Facebook, o que pode estar associado a um menor bem-estar – e pode contribuir para experiências sexuais subjetivas de se sentir ‘viciado’ no Facebook”, escreveram eles.
Os documentos foram divulgados como prova em uma ação movida por centenas de distritos escolares e procuradores-gerais de todos os Estados Unidos contra Meta, Snap, TikTok e Google, controlador do YouTube, no Tribunal Distrital do Norte da Califórnia. O caso deve ir a julgamento ainda este ano.
Isso ocorrerá após a conclusão do caso de dependência de mídia social contra a Meta e o YouTube atualmente sendo julgado em Los Angeles, o primeiro de mais de 1.500 processos movidos por indivíduos contra as empresas. Meta negou as alegações do processo.
Os pais e os defensores da segurança há anos se preocupam com o fato de as plataformas de mídia social serem projetadas para atrair os usuários e mantê-los navegando o máximo possível para veicular mais anúncios. O CEO da Meta, Mark Zuckerberg, contestou essa afirmação em seu depoimento no julgamento de Los Angeles na semana passada, dizendo que a empresa estava focada em maximizar o “valor” para os usuários.
A Meta nunca conduziu a auditoria proposta, embora a porta-voz da Meta, Liza Crenshaw, tenha dito que fez outras pesquisas sobre o assunto que informaram mudanças de design, como ferramentas de controle parental e configurações padrão de segurança para adolescentes introduzidas nos últimos anos.
“Projetamos intencionalmente padrões automáticos, como o modo de suspensão, que incentivam os adolescentes a sair do aplicativo e pausar os anúncios durante a noite”, disse Crenshaw em comunicado. “Os pais podem ir ainda mais longe, limitando o tempo total de seus filhos adolescentes a apenas 15 minutos por dia ou definindo intervalos programados quando os adolescentes precisarem se afastar de nossos aplicativos”.
A divulgação de sexta-feira é apenas a última parcela de documentos internos a ser divulgada no caso do norte da Califórnia.
Documentos divulgados anteriormente também mostraram pesquisadores da Meta em uma conversa interna na qual foram levantadas preocupações sobre o uso compulsivo, dizendo: “IG (Instagram) é uma droga… basicamente somos traficantes”. Documentos internos de outras empresas de tecnologia também sugerem que as empresas estavam cientes de que seus aplicativos poderiam prejudicar os adolescentes. As empresas disseram na época que os documentos pintam uma imagem enganosa de sua plataforma e de seus esforços de segurança.
‘Quais são os verdadeiros problemas que as pessoas têm neste espaço?’
A Meta e outras empresas de tecnologia há muito argumentam publicamente que não há evidências conclusivas que liguem as mídias sociais ao vício ou a outros desafios de saúde mental.
“Acho importante distinguir entre dependência clínica e uso problemático, portanto, usar algo mais do que você se sente bem”, testemunhou o chefe do Instagram, Adam Mosseri, em um caso em Los Angeles no início deste mês.
“Às vezes usamos a palavra ‘vício’ para nos referirmos às coisas de uma forma mais informal”, disse ele. “Tenho certeza de que disse que era viciado em um programa da Netflix, você sabe, quando o coloquei no ar uma noite, mas não acho que seja a mesma coisa que um vício clínico.”
Mas um documento de 2018 sugere que os investigadores da empresa acreditavam que certas funcionalidades do Facebook contribuíam para uma utilização repetida que fazia com que os utilizadores se sentissem pior, ou com menos controlo sobre o seu comportamento. Na proposta, os pesquisadores também sugeriram estender o estudo ao Instagram.
“Como atualmente NÃO existe transtorno de dependência de FB definido por um médico – quais são os problemas reais que as pessoas têm neste espaço?” eles escreveram. “A equipe de bem-estar reformulou a narrativa do vício para focar nas maneiras pelas quais o Facebook pode estar contribuindo para padrões de uso que as pessoas acham difícil de controlar, apesar dos impactos negativos em suas vidas, e para identificar e corrigir esses fatores contribuintes”.
Os pesquisadores expressaram o desejo de identificar e alterar recursos problemáticos – como reprodução automática de vídeo, contagem de anúncios “curtidas” e “rolagem infinita” – e observaram que a plataforma deve promover apenas comportamentos “frequentes” que também forneçam valor real aos usuários.
Um documento separado descreveu “considerações de comunicação” para a auditoria proposta, incluindo a oportunidade de abordar alegações “massivas” da mídia de que o Facebook estava “pulverizando cocaína comportamental” em seus produtos e de “antecipar quaisquer regulamentações”. O documento observa que a auditoria poderia melhorar o bem-estar dos usuários, mas disse que as equipes deveriam considerar possíveis compensações, incluindo a perda de envolvimento.
A empresa não realizou a auditoria proposta. Harris, do Center for Humane Technology, não respondeu imediatamente a um pedido de comentário sobre se havia conversado com a empresa sobre o estudo.
Mas Crenshaw, da Meta, disse que os pesquisadores da empresa continuaram a pesquisar experiências de usuário potencialmente negativas em suas plataformas com a intenção de melhorá-las. Ela disse que os pesquisadores da Meta se reuniram com outros acadêmicos que trabalham na área, incluindo psicólogos do Reino Unido e pesquisadores de psicologia digital Daria Kuss e Mark Griffiths, que foram citados na proposta de 2018 junto com Harris.
Vários meses após a proposta, em maio de 2019, a Meta divulgou publicamente um estudo separado conduzido por pesquisadores internos intitulado “Compreendendo as percepções do uso problemático do Facebook”.
Um estudo público de 2019, que entrevistou 20.000 usuários do Facebook, descobriu que cerca de 3% dos usuários do Facebook nos EUA experimentaram “uso problemático”, definido como sensação de perda de controle sobre seu uso e dificuldade para dormir, trabalhar ou ter relacionamentos por causa da plataforma. O uso problemático foi maior entre adolescentes e adultos jovens. Os pesquisadores concluíram que o Facebook deveria facilitar a pausa das pessoas na plataforma e considerar a redução da frequência de anúncios, especialmente para adolescentes.
Em 2021, a Meta forneceu lembretes de “pausa” para adolescentes no Instagram. Adicionou ferramentas de controle parental – incluindo a opção de definir um limite de tempo para rolagem – no ano seguinte. Em 2024, a Meta compilou muitas de suas medidas de segurança para adolescentes em “Contas de adolescentes”, que aplicam configurações padrão de privacidade e segurança para adolescentes, como pausar anúncios durante a noite.
Muito CNN-Wire
& © 2026 Cable News Network, Inc., uma empresa Warner Bros. Todos os direitos reservados.




