O Chefe de Justiça da Índia (CJI), Bhushan R Gavai, reconheceu na segunda-feira que os juízes estão cientes do uso indevido de ferramentas de inteligência artificial (IA), incluindo a prevalência de imagens transformadas visando membros do judiciário, mas observou que qualquer movimento para regular tais tecnologias deve vir do executivo, não dos tribunais.
Leia também: Jaish-e-Mohammed, Módulo Terrorista Interestadual ligado à AGuH, preso pela Polícia de Jammu e Caxemira
“Também vimos as nossas imagens transformadas”, observou o CJI ao ouvir um Litígio de Interesse Público (PIL) para enquadrar um quadro legislativo ou político para reger o uso de IA Generativa (GenAI) em órgãos judiciais e quase-judiciais. “…É basicamente uma questão política. É um apelo que o executivo deve atender”, acrescentou.
Leia também: ‘Igualdade e representação andam de mãos dadas’: CJI Bhushan e Gavai
Uma bancada composta pelo Juiz K Vinod Chandran indicou a sua relutância em intervir, observando que as questões relacionadas com a governação das tecnologias emergentes se enquadram no domínio da formulação de políticas. No entanto, o assunto foi adiado por duas semanas a pedido do advogado.
Leia também: Alto oficial da prisão de Bengaluru transferido, 2 suspensos por vídeo viral de presidiários dançando usando telefones
O PIL, apresentado pelo advogado Kartikeya Rawal e alegadamente assistido pelo advogado registrado Abhinav Srivastava, busca uma orientação ao Centro para promulgar uma lei ou formular uma política abrangente para garantir o uso “regulamentado e uniforme” da GenAI no judiciário.
Leia também: Homem comete suicídio atirando em Jantar Mantar, em Delhi, investigação em andamento
A petição distingue a GenAI da IA tradicional, argumentando que a capacidade de gerar autonomamente novos textos, dados e raciocínios cria o risco de alucinações – casos em que o sistema gera princípios jurídicos inexistentes ou citações de casos fabricadas.
“A caixa negra e as características de opacidade da GenAI têm o potencial de criar ambiguidade no sistema jurídico”, afirma a petição, acrescentando que tais resultados podem levar a jurisprudência falsa, interpretação tendenciosa e raciocínio arbitrário, potencialmente violando o Artigo 14 (direito à igualdade).
Segundo o peticionário, o judiciário depende fortemente de precedentes e de raciocínios rastreáveis. A opacidade dos modelos GenAI, muitas vezes referidos na tecnologia como “caixas pretas”, significa que mesmo os desenvolvedores não entendem completamente como as decisões são tomadas, dificultando a supervisão.
Leia também: Quem é Muzammil Shakeel? Médico de Jammu e Caxemira preso com nitrato de amônio perto de Delhi em grande operação
A petição também alerta que os modelos GenAI treinados em dados do mundo real são propensos a replicar ou mesmo amplificar os preconceitos sociais existentes contra as comunidades marginalizadas. Argumentou que, sem normas claras sobre a neutralidade e propriedade dos dados, os processos judiciais assistidos por IA comprometem o direito dos cidadãos de saber nos termos do artigo 19.º, n.º 1, alínea a).
A petição também sinalizou o risco aumentado de ataques cibernéticos direcionados a sistemas alimentados por IA, especialmente se processos ou documentos judiciais forem integrados em plataformas automatizadas.



