Quando vi “Data”, uma peça off-Broadway sobre as crises éticas dos funcionários de uma empresa de inteligência artificial como a Palantir, no mês passado, fiquei impressionado com sua presciência. É sobre um programador de computador brilhantemente em conflito, envolvido em um projeto secreto – pare de ler aqui se quiser evitar spoilers – para ganhar um contrato do Departamento de Segurança Interna para um banco de dados que rastreia imigrantes. Um thriller teatral animado, a peça transmite perfeitamente a linguagem elegante e grandiosa com que os titãs da tecnologia justificam os seus projetos holísticos ao público e talvez a si próprios.
“Os dados são a linguagem do nosso tempo”, diz um gestor de análise de dados chamado Alex, que se parece muito com o presidente-executivo da Palantir, Alex Karp. “E como qualquer língua, a sua narrativa será escrita pelos vencedores. Portanto, se as pessoas que são fluentes na língua não ajudarem o crescimento da democracia, isso dói.
Estou sempre em busca de arte que tente dar sentido à nossa vigilância política em relação às crises e achei o drama animado. Mas nas últimas duas semanas, à medida que os acontecimentos da vida real passaram a ecoar alguns dos pontos da trama em “Detalhes”, isso pareceu profético.
Algoritmo assustador
Seu personagem principal, Maneesh, criou um algoritmo com poderes preditivos terrivelmente precisos. Quando vi o drama, não tinha ideia se tal tecnologia estava realmente no horizonte. Mas esta semana, o The Atlantic noticiou sobre a Mantic, uma startup cujo motor de IA supera muitos dos melhores previsores humanos em áreas que vão da política ao desporto e ao entretenimento.
Também me pergunto quantas pessoas que lançam ferramentas de IA sobre nós compartilham a raiva de Maneesh e de seu colega de trabalho, Riley, que grita: “Vou aqui todos os dias e faço do mundo um lugar pior”. Penso que é isso que a maioria das pessoas que trabalham com IA estão a fazer, mas é difícil imaginar muitas delas a pensar, imersas como estão numa cultura que as elogia como exploradores heróicos à beira de grandes avanços nas possibilidades humanas — ou talvez pós-humanas. Como disse a crítica da revista New York sobre “Detalhes”, “Quem chega tão longe no trabalho sem pensar nas consequências – e há muito tempo autor -?”
Mas na semana passada, Mrinank Sharma, pesquisador de segurança da Anthropic, disparou o tipo de carta aberta que pareceria extremamente exagerada em um roteiro de teatro. “O mundo está em perigo”, escreveu ele, descrevendo uma pressão constante no trabalho para “deixar de lado as coisas mais importantes”. De agora em diante, disse Sharma, ele se dedicaria à “construção de comunidades” e à poesia. Dois dias depois, Zoë Hitzig, pesquisadora da OpenAI, anunciou sua demissão do New York Times, descrevendo como a ferramenta poderia usar os dados pessoais das pessoas para direcioná-las com anúncios.
Entrei em contato com o escritor de “Data”, Matthew Libby, porque estava curioso para saber como ele acertou tanto e descobri que ele estudou ciências cognitivas na Universidade de Stanford antes de trabalhar no teatro. Especificamente, ele é formado em sistemas simbólicos, um programa interdisciplinar que combina disciplinas como ciência da computação, filosofia e psicologia. Ele sempre pretendeu ser escritor, disse ele, mas queria ter certeza de que teria algo sobre o que escrever.
Não é de surpreender que Libby, que se formou em 2017, tenha sentido a atração do Vale do Silício, a certa altura sendo entrevistada para um estágio na Palantir. Ele ficou com o coração partido quando não entendeu. Mas quando se deparou com uma história da mídia em 2017 intitulada “Palantir fornece o motor para a máquina de deportação de Donald Trump”, ele se perguntou o que teria feito se trabalhasse lá, e foi assim que “Data” nasceu.
Talvez a coisa mais interessante sobre “Dados” seja a visão que ele dá sobre aqueles que deixam as empresas que produzem IA perigosa, mas a maioria fica e as histórias que contam a si mesmos sobre o que estão construindo. “Minha experiência na indústria de tecnologia mostra que o vento é sempre inevitável”, disse Libby. “Você sabe, ‘Não podemos adiar nada disso porque está chegando, não importa o que aconteça, e você não quer ser o único a fazer isso?'”
O fim do mundo
Entre as tecnologias, a IA é única na medida em que aqueles que a criam – e que dela beneficiam – avisam ocasionalmente que ela poderá destruir a humanidade. Como Sam Altman disse em 2015, pouco antes de ajudar a fundar a OpenAI: “Acho que o mundo provavelmente acabará com a IA. Mas, enquanto isso, grandes empresas serão criadas com aprendizado de máquina sério”. Uma versão ligeiramente truncada dessa citação aparece como uma epígrafe na escrita de Libby.
No mês passado, Dario Amodei, que dirige a Anthropic, o maior responsável pelos gigantes da IA, publicou um ensaio intitulado “A Adolescência da Tecnologia”, sobre possíveis apocalipses da IA. Os sistemas de IA, escreveu ele, poderiam se voltar contra a humanidade ou ajudar a criar armas biológicas. Eles poderiam ser usados para construir um panóptico digital que seria mais abrangente do que qualquer coisa hoje em dia ou para desenvolver propaganda que seria tão precisamente adaptada aos seus utilizadores que equivaleria a uma lavagem cerebral.
Mas, na opinião de Amodei, estes horrores têm menos potencial para abrandar o desenvolvimento da IA ou mantê-la fora das mãos do Estado de vigilância, do que para garantir que os Estados Unidos permanecem à frente da China. “Faz sentido usar a IA para capacitar as democracias a resistir às autocracias”, escreveu ele. “É por isso que a Anthropic considera importante fornecer IA às comunidades de inteligência e defesa nos EUA e aos seus aliados democráticos.” O seu argumento seria mais sólido se os Estados Unidos ainda fizessem, em qualquer sentido significativo, parte de uma coligação de democracias, em vez de uma nação governada por um ambicioso autocrata largamente apoiado pela indústria tecnológica.
Em “Dados”, Alex apresenta um argumento semelhante para a licitação do contrato do Departamento de Segurança Interna. “Somos os combatentes que defendem a democracia”, diz ele. “A China já tem um sistema automatizado de crédito social e está a exportá-lo para países em desenvolvimento. A Rússia tem a infraestrutura de desinformação mais visada que o homem conhece. É para isso que estão a inovar. Se pararmos de inovar? Perderemos a liderança.” A ameaça da autoria no exterior torna-se uma justificativa para a construção de ferramentas de autoria digital em casa. Pena que não seja apenas ficção.
Michelle Goldberg é colunista do New York Times.





