As ações da Nvidia caem devido ao relatório do desafio do Google em chips de IA

As ações da Nvidia Corporation caíram devido a um relatório de que a Meta Platforms Inc. Google está em negociações para gastar bilhões em chips de IA, sugerindo que o líder de buscas na Internet está intensificando esforços para rivalizar com o acelerador de IA mais vendido do setor.

Mais lidos da Bloomberg

A Meta está em negociações para usar chips do Google – conhecidos como unidades de processamento tensor, ou TPUs – em data centers em 2027, informou o The Information, citando uma pessoa não identificada familiarizada com as discussões. A Meta pode alugar chips da divisão de nuvem do Google no próximo ano, disse a agência de notícias.

Um acordo ajudará a estabelecer as TPUs como uma alternativa aos chips da Nvidia, o padrão ouro para grandes empresas de tecnologia e startups, da Meta à OpenAI, que precisam de poder computacional para desenvolver e executar plataformas de inteligência artificial.

As ações da Nvidia caíram até 2,7% nas negociações após o expediente. O Google, de propriedade da Alphabet Inc., ganhou 2,7%, somando-se ao recente aumento de otimismo em relação à versão mais recente de seu modelo Gemini AI.

O Google já havia fechado um acordo para fornecer até 1 milhão de seus chips para a Anthropic PBC, apontando para um potencial desafio de longo prazo à posição dominante da Nvidia no mercado.

Depois que o acordo da Antropologia foi anunciado, o analista da Seaports, Jay Goldberg, chamou-o de “validação realmente forte” para TPUs. “Muitas pessoas já estavam pensando nisso e provavelmente muito mais pessoas estão pensando nisso agora”, disse ele.

Os representantes da Meta se recusaram a comentar, enquanto o Google não respondeu imediatamente às solicitações.

Aqui está o que diz a Bloomberg Intelligence

O uso potencial da TPU do Google pela Meta, que a Anthropic já usa, mostra que fornecedores terceirizados de grandes modelos de linguagem podem aproveitar o Google como fornecedor secundário de chips aceleradores para inferência de curto prazo. O investimento da Mater para 2026 é de pelo menos US$ 100 bilhões, sugerindo que ela gastará pelo menos US$ 40 a US$ 50 bilhões em recursos de chips de inferência no próximo ano, calculamos. O crescimento dos custos e do backlog do Google Cloud pode acelerar em comparação com outros pares hiperescaladores e neo-cloud devido à demanda de clientes corporativos que desejam usar TPUs e Gemini LLM no Google Cloud.

– Mandeep Singh e Robert Bigger, analistas

Clique aqui para pesquisar.

As ações asiáticas relacionadas à Alphabet subiram no início do pregão na Ásia na terça-feira. Na Coreia do Sul, a IsuPetasys Co., que fornece placas multicamadas para a Alphabet, saltou 18%, para um novo recorde intradiário. Em Taiwan, as ações da MediaTek Inc. subiram quase 5%.

Um acordo com a Meta – uma das maiores gastadoras globais em data centers e desenvolvimento de IA – representaria uma vitória para o Google. Mas muito depende se os chips Tensor podem demonstrar a eficiência energética e a força computacional necessárias para serem uma opção viável no longo prazo.

O chip tensor – desenvolvido há mais de 10 anos especificamente para tarefas de inteligência artificial – está ganhando impulso fora de sua empresa natal como uma forma de treinar e executar modelos complexos de IA. Seu apelo como alternativa cresceu em um momento em que empresas ao redor do mundo se preocupam com a dependência excessiva da Nvidia, em um mercado onde até mesmo a Advanced Micro Devices Inc. é um distante segundo colocado.

Unidades de processamento gráfico, ou GPUs, parte do mercado de chips dominado pela Nvidia, foram desenvolvidas para acelerar a renderização de gráficos – principalmente em videogames e outras aplicações de efeitos visuais – mas provaram ser adequadas para treinar modelos de IA porque podem lidar com grandes quantidades de dados e cálculos. Por outro lado, TPU é um tipo de produto especializado conhecido como circuito integrado de aplicação específica ou microchip que foi projetado para uma finalidade específica.

Os chips tensores também foram adaptados como aceleradores para IA e trabalho de aprendizado de máquina nos próprios aplicativos do Google. À medida que o Google e sua unidade DeepMind desenvolvem modelos de IA de ponta, como o Gemini, a empresa tem conseguido levar lições dessas equipes aos designers de chips. Ao mesmo tempo, a capacidade de personalizar chips beneficiou as equipes de IA.

– Com assistência de Riley Griffin e Carmen Arroyo.

Mais lidos da Bloomberg Business Week

©2025 Bloomberg LP

Link da fonte