Accenture e Anthropic expandem uso empresarial de IA em nuvem

A Accenture e a Anthropic expandiram a sua parceria para avançar na implantação de inteligência artificial nas empresas.

Sob este acordo, as empresas estabelecerão o Accenture Anthropic Business Group, que incluirá o treinamento de aproximadamente 30.000 profissionais da Accenture no modelo Claude AI da Anthropic.

Espera-se que esses profissionais treinados ajudem os clientes a passar de projetos-piloto iniciais de IA para implementações mais amplas em escala empresarial.

Como parte da parceria, a Accenture e a Anthropic estão lançando um produto conjunto para diretores de informação (CIOs).

Esta oferta foi projetada para ajudar a medir o valor e permitir a adoção generalizada do desenvolvimento de software habilitado para IA em suas organizações de engenharia.

Claude Code será fundamental para esta solução, trabalhando em conjunto com as estruturas da Accenture para medição de produtividade, redesenho de fluxo de trabalho e gestão de mudanças e treinamento contínuos.

O objetivo é permitir que as empresas lancem novos produtos no mercado com mais rapidez e melhorem os cronogramas de desenvolvimento.

O CEO e cofundador da Anthropic, Dario Amodei, disse: “A IA está mudando a maneira como quase todo mundo trabalha, e as organizações precisam de IA avançada e conhecimento confiável para implantá-la em escala. A Accenture traz profunda experiência em transformação organizacional e a Anthropic traz os modelos mais capazes.

“Nossa nova parceria significa que dezenas de milhares de desenvolvedores da Accenture usarão o Claude Code, tornando esta a nossa maior implantação de todos os tempos – e o novo Accenture Anthropic Business Group ajudará os clientes empresariais a usar nossos modelos de IA mais inteligentes para obter grandes ganhos de produtividade”.

As empresas também colaboram em soluções setoriais específicas para indústrias altamente regulamentadas, como serviços financeiros, ciências da vida, saúde e setor público.

Nos serviços financeiros, a Cloud AI pode ser usada para automatizar processos de compliance através da análise de documentos combinada com o conhecimento regulamentar da Accenture.

Nas áreas da saúde e das ciências da vida, a tecnologia ajudará os investigadores a analisar dados e a realizar ensaios clínicos.

No setor público, os agentes de IA podem ajudar os cidadãos a navegar nos serviços governamentais, mantendo ao mesmo tempo os padrões de privacidade e conformidade.

Para apoiar o envolvimento do cliente, a Accenture planeia integrar Claude na sua rede de centros de inovação.

Esses centros permitirão que os clientes criem protótipos e testem soluções de inteligência artificial antes de uma implantação mais ampla.

As duas empresas também investirão na criação de um Centro de Excelência Claude dentro da Accenture para desenvolver conjuntamente novas ofertas de IA adaptadas aos requisitos da indústria e aos padrões regulatórios.

Julie Sweet, presidente e CEO da Accenture, disse: “Esta emocionante expansão de nossa parceria com a Anthropic ajudará nossos clientes a acelerar a transição de um experimento de IA para seu uso como um catalisador para a reinvenção em toda a empresa.

“Com a poderosa combinação das capacidades Claude da Anthropic e a experiência em IA e o conhecimento industrial e funcional da Accenture, as organizações podem implementar IA de forma responsável e rápida em qualquer lugar – desde o desenvolvimento de software até a experiência do cliente – para impulsionar a inovação, desbloquear novas fontes de crescimento e construir sua confiança para liderar na era da IA.”

“Accenture e Anthropic Expand Enterprise Use of Cloud AI” foi originalmente criado e publicado pela Verdict, uma marca de propriedade da GlobalData.


As informações neste site são incluídas de boa fé apenas para fins de informação geral. Não se destina a constituir um conselho no qual você deva confiar, e não oferecemos nenhuma representação, garantia ou garantia, expressa ou implícita, quanto à sua exatidão ou integridade. Você deve obter aconselhamento profissional ou especializado antes de tomar ou abster-se de qualquer ação com base no conteúdo do nosso site.

Link da fonte