Análise de Lisa Eadicicco, David Goldman, CNN
A Anthropic atingiu uma encruzilhada familiar para uma empresa de tecnologia em crescimento: como escalar sem comprometer os princípios que a impulsionam.
A empresa de IA fez da segurança um princípio orientador. Ele propôs a regulamentação da IA e apelou à protecção dos trabalhadores, uma vez que a IA substitui algumas tarefas humanas. A Anthropic tem trabalhado muito para enviar uma mensagem específica aos clientes: Nós somos os mocinhos.
Mas as barreiras auto-impostas que a empresa estabeleceu para construir essa marca podem ser obstáculos ao seu sucesso.
Esta semana, o Pentágono deu um ultimato à Anthropic: abandone as suas restrições éticas à IA ou perca o seu contrato de 200 milhões de dólares e enfrente uma lista negra. Separadamente, também esta semana, a Anthropic divulgou a sua política central de segurança para melhor se adaptar a um mercado em rápida evolução, onde os concorrentes podem não aderir aos mesmos padrões de segurança.
Não está claro como esta semana afetará os negócios e a reputação da Anthropic, mas suas decisões terão consequências.
Sabemos disso porque o dilema antrópico é bem conhecido na indústria de tecnologia. Muitas empresas quebram os seus valores e a sua moral, apenas para enfrentarem decisões difíceis que as obrigam a escolher entre crescer e manter esses ideais.
A Antrópico pode querer prestar atenção.
OpenAI e fim de semana de Sam
Há pouco mais de dois anos, o maior concorrente da Anthropic entrou em desacordo sobre o crescimento em detrimento da segurança.
Em um dos dramas de diretoria mais estranhos da história corporativa, o principal concorrente da Anthropic, OpenAI, demitiu repentinamente seu fundador e CEO Sam Altman em uma sexta-feira de novembro de 2023, apenas para contratá-lo na terça-feira seguinte.
A saga envolveu uma estrutura corporativa única que colocou a empresa com fins lucrativos de rápido crescimento por trás do ChatGPT sob os auspícios de um conselho sem fins lucrativos. Quatro anos antes, a empresa escreveu em seu estatuto que a OpenAI ainda estava “preocupada” com a capacidade da IA de “trazer mudanças rápidas” para a humanidade. Os supervisores da empresa temiam que Altman estivesse agindo tão rapidamente que corresse o risco de minar a segurança que a empresa prometeu fornecer.
Mas a demissão de Altman levou a ameaças de demissões – uma situação insustentável que poderia destruir a empresa. Assim, o conselho contratou Altman alguns dias depois. O conselho foi dissolvido logo depois, e Altman mudou a estrutura corporativa no ano passado para se libertar da supervisão da organização sem fins lucrativos.
Desde então, a OpenAI tem lutado para equilibrar velocidade e segurança, enfrentando vários processos judiciais que afirmam que seus produtos convenceram os jovens a se machucarem. OpenAI nega essas afirmações.
Jogo Apple e o atirador de San Bernardino
Syed Farook e sua esposa, Tashfeen Malik, mataram 14 pessoas no Inland Regional Center em San Bernardino, Califórnia, em dezembro de 2015. O casal morreu posteriormente em um tiroteio com a polícia.
Os investigadores foram autorizados a recuperar dados do iPhone de Farook, mas não conseguiram acessá-los porque estavam bloqueados com uma senha. Um juiz da Califórnia ordenou que a Apple ajudasse as autoridades a obter acesso ao telefone.
Mas numa carta aberta, assinada pelo CEO da Apple, Tim Cook, a empresa recusou. Cook disse que a ordem do juiz abriria uma “porta dos fundos para o iPhone”, que era “algo que consideramos muito perigoso para criar”. A empresa disse que não tem simpatia pelos terroristas, mas que cumprir a ordem daria às autoridades governamentais “o poder de comprometer o dispositivo de qualquer pessoa para capturar os seus dados”.
A Apple recebeu tremendas críticas por sua decisão – inclusive do então candidato presidencial Donald Trump. Mas desde então tem recebido elogios generalizados por defender a privacidade dos seus clientes, o que desde então se tornou sinónimo da marca da empresa.
A empresa agora observa regularmente que não venderá dados de clientes nem armazenará determinadas informações pessoais em seus servidores, buscando se diferenciar do Google, um de seus principais concorrentes.
Etsy vs vendedores individuais
Como o império de comércio eletrônico da Amazon estava apenas começando a decolar no início dos anos 2000, o Etsy surgiu como uma alternativa onde os compradores podiam encontrar itens artesanais exclusivos.
Mas ele fez uma mudança controversa em 2013 que ameaçou desafiar esse espírito. Expandiu a sua política para permitir que os fornecedores utilizassem as operações dos fabricantes e externalizassem, suscitando preocupações na altura de que já não proporcionaria condições de concorrência equitativas para pequenos fornecedores independentes sem recursos para contratar pessoal.
No entanto, essa decisão foi crítica para a expansão da Etsy no mercado que é hoje, que oferece agora mais de 100 milhões de itens à venda e aproximadamente 8 milhões de vendedores ativos.
“Do ponto de vista comercial, funcionou para a Etsy, mas foi difícil para a empresa”, disse Arun Sundararajan, diretor do Centro Fubon de Tecnologia, Negócios e Inovação da NYU Stern.
O que vem por aí para a Antrópica
Esses estudos de caso fornecem um roteiro cauteloso para a Antrópica.
Agora, a maior consequência a curto prazo para a Anthropic será provavelmente a forma como os clientes e potenciais clientes valorizam e confiam na empresa, disse Owen Daniels, diretor associado de análise do Centro de Segurança e Tecnologia Emergente de Georgetown.
A Anthropic disse que suas medidas de segurança autoimpostas sempre foram concebidas para serem flexíveis e sujeitas a mudanças à medida que a IA evolui. Ele prometeu ser transparente sobre a segurança no futuro e disse que não tinha escolha: se parasse de crescer, os concorrentes que não valorizam tanto a segurança poderiam avançar e tornar a IA “menos segura” em geral.
Não está claro o que a mudança da Antrópica trará, já que os riscos inerentes à IA ainda são em grande parte “conceituais”, disse Sundararajan.
Ele disse que seria cético em relação a qualquer especialista que afirmasse que este era um momento importante na segurança da IA. Mas pode ser um momento importante para a empresa.
“Anthropic, para mim, tem mais a ver com um compromisso distinto de segurança aqui na Anthropic e menos com o futuro da IA”, disse ele.
Muito CNN-Wire
& © 2026 Cable News Network, Inc., uma empresa Warner Bros. Todos os direitos reservados.




