O Comité de Diretrizes de Governação da IA da Índia, nomeado pelo governo, estabeleceu um conjunto de diretrizes práticas para a indústria e os reguladores, juntamente com um quadro de responsabilização detalhado, mecanismos de reparação de reclamações e um plano de ação sobre como a Índia deve implementar a governação da IA nos próximos anos.
“Este (relatório) torna a implantação da IA muito dinâmica, segura e inovadora. Precisamos ver como avançamos com isso, especialmente quando dizem que a inteligência artificial geral (AGI) está a apenas dois anos de distância”, disse o principal conselheiro científico, Ajay Kumar Sood. “Devíamos ver como estamos realmente nos preparando para AGI… não acho que possa ser dimensionado linearmente da maneira que está acontecendo… para continuar a produzir mais GPUs. Quando fizermos isso, os oceanos vão ferver. Essa não pode ser a resposta.”
As recomendações do Comité, que atualmente não são juridicamente aplicáveis, incentivam as empresas que desenvolvem e implantam sistemas de IA a cumprirem as leis existentes e os princípios voluntários relativos à privacidade, justiça, segurança e transparência. Recomenda que as empresas atualizem os seus termos de serviço para refletir os compromissos de responsabilização, mantenham registos de auditoria, publiquem relatórios de transparência, incorporem a supervisão humana quando apropriado e criem ferramentas de privacidade e mitigação de preconceitos diretamente nos seus sistemas.
Entretanto, os reguladores estão a ser instados a adoptar uma abordagem proporcional baseada no risco, concentrando-se nos danos que ameaçam a vida, os meios de subsistência ou a segurança, e a coordenarem-se entre ministérios e agências através do Grupo de Governação da IA (AIGG) proposto pelo comité para garantir uma supervisão consistente.
O comitê afirma que a responsabilidade deve ser claramente dividida em toda a cadeia de valor da IA. “A responsabilidade deve ser claramente atribuída com base na função desempenhada, no risco de dano e nas condições de cuidado impostas. A responsabilidade pode ser assegurada através de diversos mecanismos políticos, técnicos e de mercado”, observa.
Espera-se que as organizações atualizem as políticas internas e as estruturas de governança para definir responsabilidades em cada estágio de desenvolvimento e implantação. O relatório recomenda a publicação de relatórios de transparência, a manutenção de trilhas de auditoria e a oferta de canais de reclamação que os usuários possam acessar facilmente.
“O relatório deixa claro que, embora essas medidas sejam passos fundamentais críticos, elas não são suficientes por si só. Os relatórios de transparência oferecem valor ao submeter as práticas da empresa à revisão pública e por pares, e as políticas internas atualizadas sinalizam o compromisso da empresa com a IA responsável. No entanto, na ausência de outros mecanismos, como auditorias de terceiros, certificação externa, canais disponíveis para reparação de reclamações e supervisão regular do governo, a orientação voluntária do mercado pode ser complementada pelo fato de que o impacto de tais medidas pode ser limitado. incentivos, aconselhamento setorial e o desenvolvimento de mecanismos independentes de revisão e reclamação, criando camadas de responsabilização que sejam flexíveis e aplicáveis quando necessário”, disse Jameela Sahiba, diretora associada do The Dialogue, um think tank de política tecnológica.
O relatório também apela à supervisão humana dos sistemas de IA de alto risco. Isto inclui a criação de capacidades humanas em pontos-chave de decisão, para que os resultados da IA possam ser revistos ou anulados pelo julgamento humano. Em contextos em rápida mudança, onde a supervisão humana direta pode não ser possível, o comité recomenda salvaguardas como disjuntores, controlos automáticos e restrições ao nível do sistema. Apela também à monitorização, testes e pistas de auditoria regulares em setores críticos para garantir que os sistemas de IA funcionam dentro de limites definidos e que os riscos potenciais são detetados e geridos em tempo útil.
Quando se trata de resolver reclamações, o relatório afirma que as empresas devem criar sistemas de reclamações claros e fáceis de usar, separados da comunicação de incidentes. Estes devem estar disponíveis em vários idiomas, responder dentro de prazos fixos e ser acessíveis a todos os utilizadores, incluindo aqueles com competências digitais limitadas. Ele acrescenta que o feedback das reclamações deve ser usado para resolver problemas e reduzir riscos futuros. O relatório também insta os reguladores e a AIGG proposta a estabelecerem formatos comuns e procedimentos de escalonamento para que as reclamações, especialmente em setores críticos, sejam tratadas de forma rápida e consistente.
“O objetivo é reconhecer que haverá diferentes atores em toda a cadeia de valor e ecossistema da IA. Portanto, precisamos pensar em introduzir mais responsabilização e garantir que as leis existentes sejam aplicadas de forma visível e consistente para que eles saibam que quando implementam a IA, estão em conformidade com as leis existentes”, disse Balaraman Ravindran, professor do comitê do IIT Madras e presidente do comitê.
O comité também descreve um plano de acção faseado para implementar as suas recomendações. A curto prazo, apela à criação de um AIGG, de um Comité de Peritos em Tecnologia e Política (TPEC) e de um Instituto de Segurança da IA (AISI), ao mesmo tempo que desenvolve quadros de risco, compromissos voluntários e padrões de responsabilização mais claros. A AISI, recentemente criada sob a Missão de IA da Índia, foi recomendada pelo comitê para atuar como o principal órgão responsável pela gestão do desenvolvimento e uso seguro e confiável da IA na Índia.
A médio prazo, o relatório propõe a introdução de normas comuns de segurança e justiça, a operacionalização de uma base de dados nacional de incidentes de IA e o lançamento de ambientes de teste regulamentares em domínios de alto risco. A longo prazo, o comité prevê a integração total da IA com a infra-estrutura pública digital da Índia e a expansão da cooperação internacional em matéria de segurança e política de IA.
Embora as recomendações não sejam vinculativas, o relatório afirma que se destinam a servir de guia para entidades públicas e privadas. “Essas recomendações são de natureza consultiva. O governo da Índia pode considerar implementá-las por meio de medidas políticas, normas ou regulamentos apropriados”, disse o comunicado.






