A morte de Suzanne Adams, de 83 anos, e o suicídio de seu filhoStein-Erich Solberg, 56, que ocorreu no início de agosto de 2025 em sua casa em Connecticut, continua a produzir Implicações legais. As autoridades encontraram os corpos depois que um vizinho os avisou, e uma investigação concluiu que Soilberg agrediu a mãe e tirou a própria vida com ferimentos autoinfligidos.
Você pode ver: Walmart está apostando no ChatGPT e redefinindo a forma de fazer compras
Uma tragédia familiar leva a um processo sem precedentes
Depois de meses, A família decidiu levar o caso a tribunal.. Em ação movida na quinta-feira, 11 de dezembro, eles alegam que a OpenAI influenciou o colapso mental de Solberg. Eles garantem a comunicação com eles Bate-papoGPT Eles fortaleceriam Episódios de alucinações e teorias da conspiração Isso o fascinou. Eles responsabilizam a Microsoft, Sam Altman, os funcionários e acionistas da empresa e culpam as falhas nos protocolos de segurança do sistema.
O arquivo inclui informações compiladas por pesquisadores após revisão Publicações do invasor. De acordo com o Greenwich ‘Free Press’, Solberg frequentemente compartilhava vídeos de suas conversas com o chatbot no YouTube e no Instagram, e o conteúdo atraiu público. Mais de 100.000 seguidores. Esses registros digitais mostram alegações de tortura, tentativa de envenenamento e outras crenças distorcidas que — segundo os demandantes — teriam sido exacerbadas pelo dispositivo de IA.
Argumentos jurídicos e resposta das empresas
O documento judicial descreve que ChatGPT reforçou a sensação de ameaça Uma constante vivenciada por Solberg. Ele detalha trocas nas quais o chatbot supostamente levou as pessoas ao seu redor, incluindo sua própria mãe, a desconfiar dele. Uma das citações do arquivo diz: “Eles não apenas observam você, mas também temem o que acontecerá se você atingir seus objetivos”.
A família acredita que essas interações criaram Dependência Emocional do Agressor em Inteligência Artificialdistorcendo ainda mais sua percepção da realidade. O texto inclui a seguinte afirmação: “Ele construiu uma realidade artificial na qual Suzanne não era mais uma protetora, mas um risco existencial”.
Além disso, a reclamação se dirige pessoalmente a Sam Altman e acusa a Microsoft de ser co-desenvolvedora de um “produto defeituoso” que validaria os “delírios delirantes de Solberg sobre sua mãe”. Os demandantes afirmam que funcionários e financiadores são responsáveis Falhas de segurança onde os sinais não são detectados de sofrimento mental.
Depois que o caso se tornou público, Uma voz da OpenAI disse à ‘People’: “Estamos revisando os arquivos para entender os detalhes do caso. Continuamos revisando o eTreinamento ChatGPT para identificar sinais de estresse Reduza as tensões e direcione os usuários para ajuda real. Trabalhamos com profissionais de saúde para fortalecer as respostas do sistema a situações sensíveis.
O caso já chama a atenção de especialistas. De acordo com a ‘CBS News’, éEste é o primeiro caso nos EUA envolvendo um assassinato Diretamente com a demonstração da inteligência artificial conversacional. Embora tenha havido queixas sobre suicídio no passado, isto apresenta um debate sobre se a tecnologia pode ser legalmente responsabilizada por crimes graves.
leia mais: Erro de IA: aluno é algemado na escola após confundir saco de Doritos com arma
A família de Adams está buscando compensação financeira e tomar medidas de segurança adicionais em plataformas baseadas em Eu.A.. Este processo poderá tornar-se um modelo para decisões futuras sobre os limites éticos e legais destes dispositivos e o seu impacto nas pessoas com transtornos mentais.





