Anthropic contrata a filósofa Amanda Askell para ensinar AI Chatbot certo e errado

A empresa americana de inteligência artificial Anthropic, que desenvolveu uma família de grandes modelos de linguagem chamada Claude, criou uma posição única em sua empresa.

Amanda Askell diz que há um “elemento humano” nos modelos, acrescentando que eles “inevitavelmente desenvolvem um senso de si mesmos”. (askell.io)

O papel é desempenhado por Amanda Askell, a filósofa residente encarregada de criar a personalidade de Claude AI, ajudando a dar-lhe uma bússola moral para distinguir o moralmente certo do errado.

Askell, que queria ser filósofo desde os 14 anos, teve que estudar a forma de pensar de Claude e conversar com um modelo que construísse a personalidade da IA ​​e corrigisse seus erros com instruções que poderiam ter mais de 100 páginas, informou o Wall Street Journal.

O filósofo de 37 anos diz que há um “elemento humano” nos modelos, acrescentando que eles “formarão involuntariamente os seus próprios sentimentos”. Em sua biografia, Askell diz que é um filósofo que trabalha na Anthropic em ajuste e coordenação de IA.

Ela diz que sua equipe treina os modelos para serem honestos e desenvolverem “bons traços de caráter”. Askell, que completou seu doutorado em Filosofia na Universidade de Nova York (NYU) e BPhil em Filosofia na Universidade de Oxford, trabalhou anteriormente na OpenAI como Cientista Pesquisador no Grupo de Políticas.

Ele foi responsável pelo trabalho sobre “Segurança da IA ​​por meio da discussão e da justificativa humana para o desempenho da IA”.

O que o trabalho de Askell significa na Anthropic?

De acordo com o WSJ, Askell compara seu trabalho na Anthropic aos seus esforços para criar um filho, ao ensinar Claude a distinguir entre o certo e o errado e incutir traços de personalidade únicos.

O filósofo residente instrui a IA a ler pistas sutis para ajudar a desenvolver sua inteligência emocional. Askell desenvolve ainda mais a compreensão de Claude sobre si mesmo para evitar que ele seja facilmente manipulado e se veja como algo diferente de útil e humano. Simplificando, seu trabalho é ensinar Claude a “ser gentil”, relata o WSJ.

Originário da zona rural da Escócia, Askell diz que mantém os modelos de IA sob controle, apesar dos contratempos ocasionais. O filósofo, que fica na defensiva quando se trata de Claude, diz que seria bom tratá-los com mais simpatia. Askell acredita que isso é importante não apenas porque Claude tem emoções reais, mas também porque, diz ele, a forma como interagimos com a IA é o que eles se tornarão.

Askell produziu o “documento da alma” de Claude.

Askel redigiu a nova “constituição” ou “documento vivo” de Claude, que foi recentemente publicada para leitura pública.

A revista Time relata que a constituição ultrapassa a linha entre uma tese de filosofia moral e um blog de cultura corporativa. O documento tem como foco Claude e utiliza as diversas etapas do treinamento do modelo para desenvolver seu caráter. Ele instrui a IA a ser segura, ética, compatível com as diretrizes da Antrópica e útil ao usuário.

Askell também acredita que explicar por que eles deveriam se comportar de determinadas maneiras pode ser útil para modelos de linguagem. “Em vez de apenas dizer, ‘aqui estão vários comportamentos que queremos’, esperamos que se você der aos modelos as razões pelas quais deseja esses comportamentos, isso generalizará de forma mais eficaz em novos contextos”, disse ele segundo a revista Time.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui