EUA tentam bloquear acesso de China e Rússia a tecnologias de inteligência artificial

xAI Grok chatbot and ChatGPT logos are seen in this illustration taken, March 11, 2024. REUTERS/Dado Ruvic/Illustration


A administração Biden está prestes a abrir uma nova frente em seu esforço para proteger a IA dos EUA contra a China e a Rússia com planos preliminares para impor restrições aos modelos de IA mais avançados, o software central dos sistemas de inteligência artificial como o ChatGPT, segundo fontes.

O Departamento de Comércio está considerando uma nova iniciativa regulatória para restringir a exportação de modelos de IA proprietários ou de código fechado, cujo software e os dados nos quais são treinados são mantidos em segredo, disseram três pessoas familiarizadas com o assunto.

Qualquer ação complementaria uma série de medidas implementadas nos últimos dois anos para bloquear a exportação de chips de IA sofisticados para a China, com o objetivo de retardar o desenvolvimento de tecnologia de ponta de Pequim para fins militares. Mesmo assim, será difícil para os reguladores acompanhar os rápidos desenvolvimentos da indústria.

O Departamento de Comércio recusou-se a comentar, enquanto a embaixada russa em Washington não respondeu imediatamente a um pedido de comentário. A embaixada chinesa descreveu a medida como um “ato típico de coerção econômica e intimidação unilateral, que a China se opõe firmemente”, acrescentando que tomaria “medidas necessárias” para proteger seus interesses.

Atualmente, nada impede que gigantes de IA dos EUA, como a Microsoft, apoiada pela OpenAI, a Google DeepMind, da Alphabet, e a rival Anthropic, que desenvolveram alguns dos modelos de IA de código fechado mais poderosos, os vendam para praticamente qualquer pessoa no mundo sem supervisão governamental.

Pesquisadores do governo e do setor privado temem que adversários dos EUA possam usar os modelos, que mineram vastas quantidades de texto e imagens para resumir informações e gerar conteúdo, para realizar ataques cibernéticos agressivos ou até criar armas biológicas potentes.

Uma das fontes disse que qualquer novo controle de exportação provavelmente visaria Rússia, China, Coreia do Norte e Irã. A Microsoft disse em um relatório de fevereiro que rastreou grupos de hackers afiliados aos governos chinês e norte-coreano, bem como à inteligência militar russa e à Guarda Revolucionária do Irã, enquanto tentavam aperfeiçoar suas campanhas de hacking usando modelos de linguagem avançados.

Poder de Computação

Para desenvolver um controle de exportação de modelos de IA, as fontes disseram que os EUA podem recorrer a um limite contido em uma ordem executiva de IA emitida em outubro passado, que é baseado na quantidade de poder de computação necessária para treinar um modelo. Quando esse nível é alcançado, um desenvolvedor deve relatar seus planos de desenvolvimento de modelos de IA e fornecer resultados de testes ao Departamento de Comércio.

Esse limite de poder de computação poderia se tornar a base para determinar quais modelos de IA estariam sujeitos a restrições de exportação, de acordo com dois oficiais dos EUA e outra fonte informada sobre as discussões. Eles preferiram não ser identificados porque os detalhes ainda não foram divulgados.

Se usado, provavelmente restringiria apenas a exportação de modelos que ainda não foram lançados, já que nenhum é considerado ter atingido o limite ainda, embora o Gemini Ultra do Google seja visto como estando próximo, segundo a EpochAI, um instituto de pesquisa que acompanha tendências de IA.

A agência está longe de finalizar uma proposta de regra, ressaltaram as fontes. Mas o fato de tal medida estar sendo considerada mostra que o governo dos EUA está buscando fechar lacunas em seu esforço para frustrar as ambições de IA de Pequim, apesar dos sérios desafios para impor um regime regulatório robusto à tecnologia em rápida evolução.

Conforme a administração Biden analisa a competição com a China e os perigos da IA sofisticada, os modelos de IA “são obviamente uma das ferramentas, um dos possíveis pontos de estrangulamento que você precisa considerar aqui”, disse Peter Harrell, ex-oficial do Conselho de Segurança Nacional. “Se você pode, de fato, praticamente falando, transformá-lo em um ponto de estrangulamento controlável por exportação ainda está por ser visto”, acrescentou.

Armas Biológicas e Ataques Cibernéticos?

A comunidade de inteligência americana, think tanks e acadêmicos estão cada vez mais preocupados com os riscos representados por atores estrangeiros mal-intencionados que ganham acesso a capacidades avançadas de IA. Pesquisadores da Gryphon Scientific e da Rand Corporation notaram que modelos de IA avançados podem fornecer informações que poderiam ajudar a criar armas biológicas.

O Departamento de Segurança Interna disse que atores cibernéticos provavelmente usariam IA para “desenvolver novas ferramentas” para “permitir ataques cibernéticos em maior escala, mais rápidos, eficientes e evasivos” em sua avaliação de ameaças à pátria de 2024.

“O potencial de explosão para o uso e exploração [da IA] é radical e estamos tendo muita dificuldade em acompanhar isso”, disse Brian Holmes, oficial do Escritório do Diretor de Inteligência Nacional, em uma reunião de controle de exportação em março, destacando o avanço da China como uma preocupação particular.

Repressão à IA

Para abordar essas preocupações, os EUA tomaram medidas para conter o fluxo de chips de IA americanos e as ferramentas para fabricá-los para a China.

Também propôs uma regra para exigir que empresas de nuvem dos EUA informem ao governo quando clientes estrangeiros usam seus serviços para treinar modelos de IA poderosos que poderiam ser usados para ataques cibernéticos.

Mas até agora não abordou os próprios modelos de IA. Alan Estevez, que supervisiona a política de exportação dos EUA no Departamento de Comércio, disse em dezembro que a agência estava analisando opções para regulamentar as exportações de grandes modelos de linguagem de código aberto antes de buscar feedback da indústria.

Tim Fist, especialista em política de IA no think tank CNAS, com sede em Washington, disse que o limite “é uma boa medida temporária até desenvolvermos melhores métodos de medir as capacidades e riscos de novos modelos”.

Jamil Jaffer, ex-oficial da Casa Branca e do Departamento de Justiça, disse que a administração Biden não deveria usar um limite de poder de computação, mas optar por um controle baseado nas capacidades do modelo e no uso pretendido. “Focar no risco à segurança nacional, em vez de nos limites tecnológicos, é a melhor abordagem, porque é mais duradoura e focada na ameaça”, disse ele.

O limite não está gravado em pedra. Uma das fontes disse que o Departamento de Comércio poderia acabar com um piso mais baixo, combinado com outros fatores, como o tipo de dados ou usos potenciais para o modelo de IA, como a capacidade de projetar proteínas que poderiam ser usadas para fabricar uma arma biológica.

Independentemente do limite, as exportações de modelos de IA serão difíceis de controlar. Muitos modelos são de código aberto, o que significa que permaneceriam fora do controle de exportação em consideração.

Mesmo impor controles aos modelos proprietários mais avançados será desafiador, pois os reguladores provavelmente terão dificuldades para definir os critérios certos para determinar quais modelos devem ser controlados, disse Fist, observando que a China provavelmente está apenas cerca de dois anos atrás dos Estados Unidos no desenvolvimento de seu próprio software de IA.

O controle de exportação em consideração impactaria o acesso ao software de backend que alimenta alguns aplicativos de consumo como o ChatGPT, mas não limitaria o acesso aos próprios aplicativos downstream.

Com informações da Reuters.

Redação:
Related Post

Privacidade e cookies: Este site utiliza cookies. Ao continuar a usar este site, você concorda com seu uso.