Quando você compra links para nossos artigos, o futuro e seus parceiros podem obter uma comissão.
Crédito: Imagens Georgeclerk/Getty
O filósofo grego Platão escreveu que Sócrates questiona um aluno com o problema de “dobrar a praça” por cerca de 385 aC, quando solicitado a dobrar a área da praça, o aluno dobrou o comprimento de cada lado.
Cientistas da Universidade de Cambridge e da Universidade Hebraica de Jerusalém escolheram um problema para defender sua solução incomum. Desde que escreveu Platão 2.400 anos atrás, os estudiosos usaram a duplicação de um problema quadrado para argumentar se o conhecimento matemático necessário para resolvê -lo já está em nós, liberado por causa ou acessível por experiência.
Como o ChatGPT, como outros modelos de grandes idiomas (LLM) (LLM), é treinado principalmente no texto e não nas imagens, eles decidiram que havia uma chance baixa de que a resposta para o problema duplo existisse nos dados de treinamento. Isso significa que, se houver uma solução correta sem ajuda, pode -se argumentar que a capacidade matemática aprende e não congênita.
A resposta veio quando a equipe foi além. Conforme descrito em um estudo publicado em 17 de setembro na revista Jornal Internacional de Educação Matemática em Ciência e TecnologiaEles pediram ao Chatbot para dobrar a área do retângulo por meio de raciocínio semelhante. Ele respondeu que, como a diagonal do retângulo não pode ser usada para dobrar seu tamanho, não havia solução na geometria.
No entanto, o convidado do estudioso da Universidade de Cambridge Nadav Marco da Universidade Hebraica de Jerusalém e professor de educação matemática Andreas StylianidesEle sabia que havia uma solução geométrica.
Marco disse que as chances de falsas reivindicações existentes nos dados de treinamento do ChatGPT eram “pequenas”, o que significa que foi uma resposta de improvisação com base na discussão anterior do dobro do problema do quadrado – uma dica clara de ensinamentos gerados do que congênitos.
“Quando enfrentamos um novo problema, nosso instinto é frequentemente tentar as coisas com base em nossa experiência passada”, disse 18 de março. declaração. “Em nosso experimento, o Chatgpt parecia estar fazendo algo semelhante. Assim como um estudante ou um estudioso, ele parecia ter inventado suas próprias hipóteses e soluções”.
Máquinas que eles pensam?
O estudo lança uma nova luz sobre perguntas sobre Inteligência artificial Ai) versão de “justificativa” e “pensamento”, disseram os cientistas.
Porque parecia improvisar reações e até cometer erros como um aluno Sócrates, Marco e Stylianides sugeriram que o ChatGPT poderia usar o conceito que já conhecemos da educação chamado e Zona de desenvolvimento proximal (ZPD) que descreve a lacuna entre o que sabemos e o que poderíamos saber com a orientação educacional certa.
Eles disseram que o ChatGPT pode usar espontaneamente uma estrutura semelhante e resolver novos problemas que não são representados nos dados de treinamento simplesmente graças aos desafios certos.
É um exemplo significativo do problema de longo prazo do gabinete preto na IA, onde a programação ou o “pensamento” passa pelo sistema para concluir, invisível e inesgotável, mas os cientistas disseram que seu trabalho acaba enfatizando a oportunidade de trabalhar para nós.
“Ao contrário das evidências encontradas nos renomados livros didáticos, os alunos não podem assumir que as evidências do ChatGPT são válidas”, disse Stylianides em comunicado. “O entendimento e a avaliação da evidência de AIs gerados aparece como habilidades -chave que precisam ser incorporadas ao currículo da matemática”.
Histórias relacionadas
– Os modelos futuros de IA podem ser sobrecarregados com um novo sistema de lógica que os cientistas chamam de “infernalismo”
– Arquitetura computacional chinesa enevada “inspirada no cérebro humano” pode levar a AGI, dizem os cientistas
– Os cientistas descobrem as principais diferenças na maneira como as pessoas e a IA “pensam” – e as consequências podem ser significativas
É a habilidade básica que eles querem que os alunos gerenciem em contextos educacionais, algo que eles disseram exigir uma melhor engenharia rápida – por exemplo, ai “Quero que exploremos esse problema” do que “” Tell Me “.
A equipe é cautelosa sobre os resultados e nos adverte para não ir além deles e concluir que a LLM “desenvolverá coisas” como nós. Mas Marco descreveu o comportamento do chatgpta como “semelhante aos estudantes”.
Os cientistas veem o escopo para pesquisas futuras em várias áreas. Os modelos mais recentes podem ser testados em um conjunto mais amplo de problemas matemáticos e também existe o potencial de combinar chatgpt com sistemas geométricos dinâmicos ou frases e cria um ambiente digital mais rico que suporta pesquisas intuitivas, por exemplo, na maneira como professores e alunos usam a IA para cooperar nas classes.






