Na ausência de regulamentação federal mais forte, alguns países começaram a regular os pedidos que oferecem “terapia de IA” porque mais pessoas recorrem à inteligência artificial para conselhos de saúde mental.

Mas as leis, todas aprovadas este ano, não estão totalmente envolvidas no cenário em rápida mudança do desenvolvimento de software de IA. E os desenvolvedores de aplicações, políticos e advogados de saúde mental afirmam que a colcha de retalhos resultante das leis estaduais não é suficiente para proteger os usuários ou responsabilizar os criadores da tecnologia prejudicial.

“O fato é que essas ferramentas são usadas por milhões de pessoas e não retornam”, disse Karin Andrea Stephan, CEO e co -fundadora do aplicativo de aplicativo de chatbot earkick.

___

Nota do editor – Esta história inclui uma discussão sobre suicídio. Se você ou alguém que você conhece, você precisa de ajuda é uma linha de resgate nacional para suicídio e crise dos EUA disponíveis pelo texto ou texto de texto 988.

___

As leis estaduais adotam diferentes abordagens. Illinois e Nevada proibiram o uso da IA ​​para tratar a saúde mental. Utah colocou alguns limites para a terapia com chatbot, incluindo os requisitos para proteger as informações de saúde dos usuários e revelar claramente que o chatbot não era uma pessoa. Pensilvânia, Nova Jersey e Califórnia também estão considerando maneiras de regular a terapia de IA.

O impacto no usuário varia. Algumas aplicações bloquearam o acesso a países com proibições. Outros dizem que não fazem mudanças quando esperam por uma maior clareza.

E muitas leis não se aplicam a chatbots genéricos, como o ChatGPT, que não são vendidos explicitamente para terapia, mas usam -os para ele um número indizível de pessoas. Esses robôs atraíram os processos em casos terríveis em que os usuários perderam sua adesão à realidade ou tiraram a própria vida após a interação.

Vaile Wright, que supervisiona as inovações em saúde na American Psychological Association, concordou que o pedido pode atender à necessidade e registrar uma falta nacional de prestadores de serviços de saúde mental, altos custos de cuidados e acesso desigual a pacientes segurados.

Os chatbots de saúde mental que estão enraizados na ciência, criados com entrada profissional e monitorados, podem mudar a paisagem, disse Wright.

“Isso pode ser algo que ajuda as pessoas antes de entrarem na crise”, disse ela. “Atualmente, não está no mercado comercial”.

Portanto, são necessárias regulamentação e supervisão federais, disse ela.

No início deste mês, a Comissão Federal Comercial anunciou que estava abrindo perguntas de sete empresas de chatbot da IA ​​- incluindo empresas do Instagram e do Facebook, Google, ChatGPT, Grok (Chatbot em X), Caracter.ai e Snapchat – como “medir, testar e monitorar os impactos potencialmente negativos dessa tecnologia em crianças e adolescentes”. E a gestão de alimentos e medicamentos é convocada pelo Comitê Consultivo de 6 de novembro para revisar dispositivos generativos com suporte AF.

As agências federais podem considerar restrições sobre como os chatbots são lançados, restringindo práticas viciantes, exigindo publicação aos usuários de que não são prestadores médicos, exigem que as empresas sigam e relatem idéias suicidas e ofereçam proteção legal para pessoas que relatam práticas ruins da empresa, disse Wright.

Nem todas as aplicações bloquearam o acesso

De “Aplicações que acompanham” a “terapeutas ai” e a aplicação de “bem -estar mental” é o uso da IA ​​no atendimento à saúde mental de diversos e difíceis de definir, muito menos escrever as leis.

Isso levou a várias abordagens regulatórias. Por exemplo, alguns estados se concentram em aplicações acompanhantes que são projetadas apenas para amizade, mas não se mudam para os cuidados de saúde mental. As leis em Illinois e Nevada proíbem produtos que afirmam fornecer tratamento de saúde mental diretamente e colocar em risco multas de até US $ 10.000 em Illinois e US $ 15.000 em Nevada.

Mas mesmo um aplicativo pode ser difícil de categorizar.

Stephan, de Earcick, disse, por exemplo, que ainda há muito que “muito enlameado” sobre a lei e a sociedade de Illinois não tem acesso limitado.

Stephan e sua equipe inicialmente adiaram o chamado de seu chatbot, que parece um desenho animado de Panda, um terapeuta. No entanto, quando os usuários começaram a usar a palavra nas análises, eles aceitaram a terminologia para fazer o aplicativo aparecer na pesquisa.

Na semana passada, eles se retiraram com terapia e condições médicas. O site de Earkick descreveu seu chatbot como “sua IA empática, equipada para apoiar sua jornada de saúde mental”, mas agora é “chatbot para você”.

No entanto, “não, diagnosticamos”, disse Stephan.

Os usuários podem definir o “botão de pânico” para chamar um ente querido de confiança se estiverem em crise e chatbot “Mergulhe” o usuário para procurar um terapeuta se sua saúde mental se deteriorar. No entanto, nunca foi projetado como um pedido de prevenção de suicídio, disse Stephan, e a polícia não seria chamada se alguém dissesse um sapato de pensamentos auto -atentos.

Stephan disse que estava feliz por as pessoas estarem olhando para a IA com um olhar crítico, mas preocupadas com a capacidade dos estados de acompanhar as inovações.

“A velocidade com que tudo se desenvolve é enorme”, disse ela.

Imediatamente outros aplicativos bloquearam o acesso. Quando os usuários de Illinois baixam a terapia de IA Aph Ash, a mensagem os exorta no e -mail seus legisladores e afirma que “legislação enganosa” proibiu pedidos como Ash “ao deixar chatbots não regulamentados que pretendiam regular livremente causar danos”.

O porta -voz da ASH não respondeu a mais solicitações de entrevista.

Mario Treto Jr., ministro do Ministério da Regulamentação Financeira e Profissional de Illinois, disse que o objetivo era garantir que os terapeutas licenciados, que são os únicos que fazem terapia.

“A terapia é mais do que apenas uma troca de palavras”, disse Treto. “Requer empatia, requer julgamento clínico, requer responsabilidade ética, da qual nenhuma IA pode realmente replicar agora”.

Uma empresa chatbot está tentando replicar completamente a terapia

Em março, a equipe com sede em Dartmouth publicou os primeiros ensaios clínicos randomizados bem conhecidos da AI generativa de chatbot para tratamento de saúde mental.

O objetivo era ter um chatbot, chamado TheBot, tratar pessoas com ansiedade, depressão ou distúrbios alimentares. Ele foi treinado em vinhetas e transcrições escritas pela equipe para ilustrar a resposta baseada em evidências.

O estudo constatou que os usuários avaliaram o TERABOT semelhante ao terapeuta e tiveram sintomas significativamente diminuídos após oito semanas em comparação com pessoas que não o usaram. Cada interação foi monitorada por uma pessoa que interveio se a reação do chatbot fosse prejudicial ou não fosse baseada em evidências.

Nicholas Jacobson, um psicólogo clínico cujo laboratório conduz pesquisas, disse que os resultados mostraram uma promessa precoce, mas que foram necessários mais estudos para provar se o BOT estava trabalhando para um grande número de pessoas.

“O espaço é tão dramaticamente novo que acho que o campo precisa continuar com muito maior cautela que está acontecendo agora”, disse ele.

Muitos aplicativos de IA são otimizados para fiação e são construídos para apoiar tudo o que os usuários dizem, em vez de chamar os pensamentos das pessoas como os terapeutas. Muitos deles andam pela sociedade e terapias, eticamente não a criariam.

A equipe de Traber tentou evitar esses problemas.

O aplicativo ainda está em teste e não está amplamente disponível. Jacobson, no entanto, se preocupa com o que proibições estritas significarão uma abordagem cuidadosa aos desenvolvedores. Ele observou que Illinois não tem uma maneira clara de fornecer evidências de que o aplicativo é seguro e eficaz.

“Eles querem proteger as pessoas, mas o sistema tradicional das pessoas está falhando agora”, disse ele. “Então, ao tentar manter o estado atual, não há realmente nada.”

Os órgãos e leis regulatórios dizem que estão abertos a mudanças. No entanto, os chatbots de hoje não são uma solução para a falta de provedor de saúde mental, disse Kyle Hillman, que faz lobbys por contas em Illinois e Nevada através de sua associação à Associação Nacional de Assistentes Sociais.

“Nem todo mundo que se sente triste precisa de um terapeuta”, disse ele. Mas para pessoas com problemas reais com saúde mental ou pensamentos suicidas: “Ele disse a eles:” Eu sei que há uma falta de trabalho, mas aqui está um robô ” – essa é uma posição tão privilegiada”.

___

O Departamento de Saúde e Ciência Associated Press recebe apoio do Instituto Médico do Ministério das Escolas Naturais Howard Hughes e da Robert Wood Foundation Johnson. AP é exclusivamente responsável por todo o conteúdo.

Link da fonte