Menu

O governo Modi da Índia corre para regulamentar a IA antes das eleições nacionais

À medida que as partes implementam a manipulação da IA, o governo indiano pediu às empresas tecnológicas que procurassem a sua aprovação antes de lançar novas ferramentas. Os críticos dizem que isso poderia sufocar a inovação e a liberdade de expressão. O governo indiano pediu às empresas de tecnologia que buscassem seu consentimento explícito antes […]

sem comentários
Apoie o Cafezinho
Siga-nos no Siga-nos no Google News
Amit Dave/Reuters

À medida que as partes implementam a manipulação da IA, o governo indiano pediu às empresas tecnológicas que procurassem a sua aprovação antes de lançar novas ferramentas. Os críticos dizem que isso poderia sufocar a inovação e a liberdade de expressão.

O governo indiano pediu às empresas de tecnologia que buscassem seu consentimento explícito antes de lançar publicamente modelos ou ferramentas de IA generativa “não confiáveis” ou “subtestadas”. Alertou também as empresas que os seus produtos de IA não devem gerar respostas que “ameacem a integridade do processo eleitoral” à medida que o país se prepara para uma votação nacional.

Os esforços do governo indiano para regular a inteligência artificial representam um retrocesso em relação à sua posição anterior de uma abordagem sem intervenção, quando informou o Parlamento, em abril de 2023, que não estava considerando nenhuma legislação para regular a IA.

O comunicado foi emitido na semana passada pelo Ministério de Eletrônica e Tecnologia da Informação (MeitY) da Índia, logo depois que Gemini, do Google, enfrentou uma reação negativa da direita por sua resposta a uma pergunta: ‘Modi é fascista?’

Respondeu que o primeiro-ministro indiano, Narendra Modi, foi “acusado de implementar políticas que alguns especialistas caracterizaram como fascistas”, citando a “repressão da dissidência e o uso da violência contra as minorias religiosas” do seu governo.

Rajeev Chandrasekhar, ministro júnior de tecnologia da informação, respondeu acusando o Gemini do Google de violar as leis da Índia. “’Desculpe, ‘não confiável’ não isenta da lei”, acrescentou. Chandrashekar afirmou que o Google pediu desculpas pela resposta, dizendo que era resultado de um algoritmo “não confiável”. A empresa respondeu dizendo que estava resolvendo o problema e trabalhando para melhorar o sistema.

No Ocidente, as grandes empresas tecnológicas têm enfrentado frequentemente acusações de preconceito liberal. Essas alegações de preconceito chegaram a produtos generativos de IA, incluindo ChatGPT da OpenAI e Microsoft Copilot.

Entretanto, na Índia, o aconselhamento do governo levantou preocupações entre os empresários da IA ​​de que a sua indústria nascente poderia ser sufocada por demasiada regulamentação. Outros temem que, com as eleições nacionais a serem anunciadas em breve, o comunicado possa refletir uma tentativa do governo Modi de escolher quais as aplicações de IA permitir e quais barrar, dando-lhe efetivamente controle sobre os espaços online onde estas ferramentas são influentes.

‘Sensação de licença raj’

A consultoria não é uma legislação que seja automaticamente vinculativa para as empresas. No entanto, o descumprimento pode atrair processos sob a Lei de Tecnologia da Informação da Índia, disseram advogados à Al Jazeera. “Este comunicado não vinculativo parece mais uma postura política do que uma formulação de políticas sérias”, disse Mishi Choudhary, fundador do Software Freedom Law Center da Índia. “Veremos um envolvimento muito mais sério após as eleições. Isso nos dá uma ideia do pensamento dos formuladores de políticas.”

No entanto, o comunicado já envia um sinal que pode ser sufocante para a inovação, especialmente em startups, disse Harsh Choudhry, cofundador da Sentra World, uma empresa de soluções de IA com sede em Bengaluru. “Se todo produto de IA precisa de aprovação, parece uma tarefa impossível também para o governo”, disse ele. “Eles podem precisar de outro bot GenAI (IA generativa) para testar esses modelos”, acrescentou, rindo.

Vários outros líderes da indústria de IA generativa também criticaram o aconselhamento como um exemplo de excesso regulamentar. Martin Casado, sócio geral da empresa de investimentos Andreessen Horowitz, com sede nos EUA, escreveu na plataforma de mídia social X que a medida era uma “farsa”, era “anti-inovação” e “antipúblico”.

Bindu Reddy, CEO da Abacus AI, escreveu que, com o novo comunicado, “a Índia acabou de dar adeus ao seu futuro!”

Em meio a essa reação, Chandrashekar emitiu um esclarecimento sobre X, acrescentando que o governo isentaria as startups de solicitar permissão prévia para implantação de ferramentas generativas de IA na “Internet indiana” e que o aviso se aplica apenas a “plataformas significativas”.

Mas uma nuvem de incerteza permanece. “O comunicado está cheio de termos ambíguos como ‘não confiável’, ‘não testado’, [e] ‘Internet Indiana’. O fato de terem sido necessários vários esclarecimentos para explicar o âmbito, a aplicação e a intenção são sinais reveladores de um trabalho apressado”, disse Mishi Choudhary. “Os ministros são pessoas capazes, mas não têm os recursos necessários para avaliar modelos de emissão de permissões de operação.”

“Não admira que tenha invocado os sentimentos de uma licença raj dos anos 80”, acrescentou ela, referindo-se ao sistema burocrático de exigência de licenças governamentais para atividades empresariais, prevalecente até ao início da década de 1990, que sufocou o crescimento econômico e a inovação na Índia.

Ao mesmo tempo, isenções do aconselhamento apenas para startups escolhidas a dedo podem trazer problemas – também elas são vulneráveis ​​à produção de respostas politicamente tendenciosas e a alucinações, quando a IA gera resultados errôneos ou fabricados. Como resultado, a isenção “levanta mais questões do que respostas”, disse Mishi.

Harsh Choudhry disse acreditar que a intenção do governo por trás da regulamentação era responsabilizar as empresas que monetizam ferramentas de IA por respostas incorretas. “Mas uma abordagem que prioriza a permissão pode não ser a melhor maneira de fazer isso”, acrescentou.

Sombras do deepfake

A decisão da Índia de regular o conteúdo de IA também terá ramificações geopolíticas, argumentou Shruti Shreya, gerente sênior de programa para regulamentação de plataformas no The Dialogue, um think tank de política tecnológica.

“Com uma base de utilizadores da Internet em rápido crescimento, as políticas da Índia podem estabelecer um precedente sobre a forma como outras nações, especialmente no mundo em desenvolvimento, abordam a regulamentação de conteúdos de IA e a governação de dados”, disse ela.

Para o governo indiano, lidar com as regulamentações de IA é um ato de equilíbrio difícil, disseram analistas.

Milhões de indianos estão programados para votar nas eleições nacionais que provavelmente serão realizadas em abril e maio. Com o surgimento de ferramentas generativas de IA facilmente disponíveis, e muitas vezes gratuitas, a Índia já se tornou um playground para mídia manipulada, um cenário que lançou uma sombra sobre a integridade eleitoral. Os principais partidos políticos da Índia continuam a implantar deepfakes em campanhas.

Kamesh Shekar, gerente sênior do programa com foco em governança de dados e IA no think tank The Dialogue, disse que o recente aconselhamento também deve ser visto como parte dos esforços contínuos do governo para elaborar regulamentos abrangentes de IA generativa.

Anteriormente, em novembro e dezembro de 2023, o governo indiano pediu às grandes empresas de tecnologia que eliminassem itens profundamente falsos dentro de 24 horas após uma reclamação, rotulassem a mídia manipulada e fizessem esforços proativos para combater a desinformação – embora não mencionasse quaisquer penalidades explícitas para não aderir à diretiva.

Mas Shekar também disse que uma política segundo a qual as empresas devem procurar obter aprovações governamentais antes de lançar um produto inibiria a inovação. “O governo poderia considerar a constituição de uma sandbox – um ambiente de teste ao vivo onde as soluções de IA e as entidades participantes podem testar o produto sem uma implementação em grande escala para determinar a sua fiabilidade”, disse ele.

Porém, nem todos os especialistas concordam com as críticas ao governo indiano.

À medida que a tecnologia de IA continua a evoluir a um ritmo acelerado, muitas vezes é difícil para os governos acompanharem. Ao mesmo tempo, os governos precisam intervir para regulamentar, disse Hafiz Malik, professor de engenharia da computação na Universidade de Michigan com especialização em detecções de deepfake. Deixar que as empresas se autorregulassem seria uma tolice, disse ele, acrescentando que o aconselhamento do governo indiano era um passo na direção certa.

“As regulamentações têm de ser introduzidas pelos governos”, disse ele, “mas não devem ser feitas à custa da inovação”.

Em última análise, porém, acrescentou Malik, o que é necessário é uma maior consciência pública.

“Ver algo e acreditar nisso agora está fora de questão”, disse Malik. “A menos que o público tenha consciência, o problema do deepfake não pode ser resolvido. A conscientização é a única ferramenta para resolver um problema muito complexo.”

Publicado originalmente pela Al Jazeera em 13/03/2024

Por Yashraj Sharma – Nova Delhi (Índia)

Apoie o Cafezinho
Siga-nos no Siga-nos no Google News

Comentários

Os comentários aqui postados são de responsabilidade exclusiva de seus autores e não representam a opinião do site O CAFEZINHO. Todos as mensagens são moderadas. Não serão aceitos comentários com ofensas, com links externos ao site, e em letras maiúsculas. Em casos de ofensas pessoais, preconceituosas, ou que incitem o ódio e a violência, denuncie.

Escrever comentário

Escreva seu comentário

Nenhum comentário ainda, seja o primeiro!


Leia mais

Recentes

Recentes