Dada a promoção o uso de inteligência artificial na vida cotidianamuitos estão aproveitando. No entanto, em abuso pode colocá-los em riscocomo avisado Psiquiatras dos Estados Unidos. Em um ano inovador para a tecnologia, os especialistas descobriram casos de pessoas que apresentam transtornos mentais para ele uso intensivo de chatbots.
O estudo publicado O Wall Street Journal especialistas observaram que encontrou dezenas de possíveis casos de pessoas com psicose e delírio. Isso aconteceu mais tarde converse longamente com chatbots.
Keith Sakata, psiquiatra da Universidade da Califórnia, em São Francisco, discutiu os efeitos adversos do uso pesado de ferramentas.
“Tecnologia pode não causar delíriomas o humano diz ao computador que essa é a sua realidade e o computador aceita isso como verdade e reflete isso– esclareceu, acrescentando que nesse caso é assim.cúmplice na repetição desse delírio“.
Tal como alguns dos seus colegas, o especialista tratou 12 pacientes hospitalizados com psicose induzida por IA já mais três no ambulatório.
Embora ainda não exista um termo estabelecido para definir a psicose induzida por IA, os médicos afirmaram que É caracterizada pela presença de três fatores:
Na maioria dos casos, isso Delírios são o principal sintoma. Em geral, as especificações são semelhante a outros tipos de psicose. Os pacientes acreditam firmemente que fizeram um avanço científico ou foram escolhidos por Deus, entre outras situações extremas.
A principal diferença é que os eventos aconteceram depois que as pessoas tiveram longas conversas com ele IA:.
A razão, segundo os pesquisadores, é bots de bate-papo tendem a corresponder aos usuários já improvisar sobre o que escrevemmesmo que esteja além da realidade.
No mês passado, especialistas dinamarqueses publicaram medRxiv: estudo no qual revisaram prontuários médicos eletrônicos. Lá eles encontraram 38 pacientes usando chatbots de IA tive”efeitos potencialmente prejudiciais à sua saúde mental“.
Outro estudo realizado por médicos da Universidade da Califórnia, em São Francisco (UCSF), mostrou um caso específico.
Uma mulher de 26 anos sem histórico de psicose foi posteriormente hospitalizada duas vezes certificando-se de que a IA permitiu que ele falasse com seu irmão morto. “Você não é louco. Você não está preso. Você está à beira de alguma coisa?“, o chatbot apareceria.
Adrian Preda, professor de psiquiatria da Universidade da Califórnia, enfatizou a diferença com as tecnologias anteriores. No passado, a televisão e a rádio eram parte do problema, mas a IA é particularmente perigosa porque tem o poder de interagir com os usuários.
“Eles simulam relacionamentos humanos. “Nada na história da humanidade conseguiu algo assim antes”, disse ele.
Os psiquiatras alertaram que Não é necessário afirmar que os chatbots causam psicose. No entanto, eles notaram que através de novas pesquisas Eles esperam descobrir se a IA pode realmente causar problemas de saúde mental.
Em números, segundo a OpenAI, a porcentagem de usuários que relatam seus possíveis sintomas emergências de saúde mental relacionadas a psicose ou mania são 0,07%. Calculando esta percentagem, verifica-se que dos mais de 800 milhões de utilizadores activos semanais, 560 mil pessoas foram afetadas.
em diálogo com O Wall Street JournalUm representante da OpenAI garantiu que a empresa trabalha para mitigar danos psicológicos.
“Continuamos melhorando o treinamento ChatGPT reconhecer e responder a sinais de sofrimento mental ou emocional, reduzir a tensão nas conversas você: orientar as pessoas para apoiar em situações reais“, escreveu ele.
Outras empresas também reconheceram o incidente. no final de novembro O criador do Character.AI proibiu adolescentes de acessar seu chatbot após ser processado pela família de um usuário adolescente que tirou a própria vida.
Quando lançou seu modelo GPT-5 em agosto, a OpenAI anunciou que agora é distingue entre interações saudáveis e padrões de uso preocupantes. Além disso, a empresa garantiu que o sistema mostrou uma diminuição na relação sexual e em reações indesejadas durante conversas sobre saúde mental.
O Wall Street Journal Ele também citou declarações recentes de Sam Altman em um podcast onde expressou que a empresa planeja dar aos adultos a liberdade de tomarem suas próprias decisões. “Ao longo do tempo, a sociedade aprenderá a pensar sobre onde as pessoas devem definir esse nível“, anunciou.



