Senado analisa projeto que regulamenta a inteligência artificial

Tatibg

Proposta cria regras para os sistemas de inteligência, estabelece direitos das pessoas afetadas por eles e define critérios para o uso pelo poder público

Publicado em 12/05/2023 – 19h17

Agência Senado — O Senado vai analisar um projeto de lei para regulamentar os sistemas de inteligência artificial no Brasil. Apresentado pelo senador Rodrigo Pacheco (PSD-MG), que preside a Casa, o PL 2.338/2023 é resultado do trabalho de uma comissão de juristas que analisou, ao longo de 2022, outras propostas relacionadas ao assunto, além da legislação já existente em outros países. A comissão foi presidida pelo ministro do Superior Tribunal de Justiça (STJ) Ricardo Villas Bôas Cueva.

O texto, que será agora analisado pelas comissões temáticas do Senado, cria regras para que os sistemas de inteligência sejam disponibilizados no Brasil, estabelecendo os direitos das pessoas afetadas por seu funcionamento. Também define critérios para o uso desses sistemas pelo poder público, prevendo punições para as eventuais violações à lei e atribuindo ao Poder Executivo a prerrogativa de decidir que órgão irá zelar pela fiscalização e regulamentação do setor.

A violação das regras previstas poderá acarretar, conforme o texto, multa de até R$ 50 milhões por infração ou até 2% do faturamento, no caso de empresas. Outras punições possíveis são a proibição de participar dos ambientes regulatórios experimentais (chamados de sandbox) e a suspensão temporária ou definitiva do sistema.

Classificação de risco

Para serem disponibilizados no Brasil, os sistemas de inteligência artificial deverão, de acordo com o projeto, passar por uma avaliação preliminar feita pelos próprios fornecedores, a fim determinar se eles podem ser classificados como sendo de alto risco ou risco excessivo, a partir de critérios como a implementação do sistema ser ou não em larga escala; o potencial de impacto negativo no exercício de direitos e liberdades; a possibilidade de causar dano material ou moral, danos irreversíveis ou de ter uso discriminatório; ou o fato de o sistema afetar pessoas de grupos vulneráveis, como crianças, idosos ou pessoas com deficiência.

Essa classificação, que pode ser revista pela autoridade competente, tem importante impacto, conforme o projeto, pois as regras previstas para os sistemas que forem classificados como de alto risco são mais rigorosas. O PL 2.338/2023 prevê que a regulamentação daqueles que forem considerados como sendo de risco excessivo será feita pela autoridade competente, a ser designada pelo Poder Executivo.

O projeto já lista como sistemas que serão considerados de alto risco aqueles que vierem a ser utilizados para atividades tais como:

– classificação de crédito;
– identificação de pessoas;
– administração da Justiça;
– implementação de veículos autônomos;
– diagnósticos e procedimentos médicos;
– tomada de decisões sobre acesso a emprego, a ensino, ou a serviços públicos e privados essenciais;
– avaliação de estudantes e trabalhadores;
– gestão de infraestruturas críticas, como controle de trânsito e redes de abastecimento de água e de eletricidade;
– avaliação individual de risco de cometimento de crimes e de traços de personalidade e de comportamento criminal.

Tal lista poderá ser atualizada pela autoridade competente.

O PL 2.338/2023 estabelece que a inteligência artificial não poderá usar técnicas subliminares para induzir pessoas a se comportar de forma prejudicial ou perigosa à sua própria saúde e segurança; nem poderá explorar vulnerabilidades de grupos específicos, como aquelas associadas a idade ou deficiência, para induzir comportamento prejudicial. O poder público, por sua vez, não poderá fazer uso de inteligência artificial para avaliar e classificar as pessoas com base em seu comportamento social ou personalidade de modo a determinar ou não o acesso a bens e políticas públicas de forma ilegítima e desproporcional.

Sempre que o sistema de inteligência artificial for considerado de alto risco, será obrigatório fazer avaliação de impacto algorítmico. Tal avaliação, cujos resultados serão públicos, deverá considerar os benefícios e os riscos conhecidos e previsíveis do sistema; a probabilidade e a eventual gravidade de consequências adversas; e o possível esforço necessário para mitigá-la.

O grau de risco do sistema afeta a forma como será determinada a responsabilidade civil em caso de dano patrimonial, moral, individual ou coletivo. Quando o sistema envolvido for de alto risco ou de risco excessivo, o fornecedor (isto é, a empresa responsável por disponibilizá-lo) ou operador (ou seja, quem faz uso do sistema) respondem pelos danos causados independentemente de haver dolo ou culpa, na medida de sua participação nos danos. No caso dos demais sistemas, aplica-se a inversão do ônus da prova em favor da vítima, de modo que o fornecedor ou o operador poderão comprovar que não são responsáveis pelos danos causados.

Direitos das pessoas afetadas

O PL 2.338/2023 especifica os direitos das pessoas afetadas pelos sistemas de inteligência artificial. Entre outros, estão o direito de contestar e solicitar explicações sobre decisões tomadas por esses sistemas; de solicitar participação humana nas decisões desses sistemas em determinadas situações; de obter informações sobre seu funcionamento; de não serem discriminadas e solicitar correção de viés discriminatório.

O texto destaca o direito à não discriminação e à correção de vieses, vedando explicitamente a discriminação baseada em origem geográfica, raça, cor ou etnia, gênero, orientação sexual, classe socioeconômica, idade, deficiência, religião ou opiniões políticas. Por outro lado, fica permitida a adoção de critérios de diferenciação de indivíduos ou grupos quando houver justificativa razoável e legítima “à luz do direito à igualdade e dos demais direitos fundamentais”.

Quando as decisões dos sistemas tiverem impacto potencialmente irreversível ou puderem gerar riscos à vida ou à integridade física dos indivíduos, será obrigatório um alto grau de envolvimento humano no processo decisório, de acordo com o projeto.

Transparência

O projeto exige transparência no uso dos sistemas de inteligência artificial. Isso quer dizer que, sempre que estiverem em uso, isso deve ser informado. Além disso, os fornecedores e os operadores desses sistemas devem adotar medidas para evitar discriminação e vieses e para conferir segurança aos dados utilizados.

Os sistemas classificados como sendo de alto risco têm obrigações adicionais: deverão documentar todo o processo de desenvolvimento da tecnologia; registrar automaticamente as operações do sistema; realizar testes de robustez, acurácia, precisão e cobertura; garantir diversidade na equipe responsável pelo desenvolvimento; e promover supervisão humana com a finalidade de prevenir ocorrência de riscos aos direitos e liberdades das pessoas decorrentes de seu uso.

Será obrigatório comunicar à autoridade competente a ocorrência de incidentes graves de segurança, como situações em que houver ameaça à vida ou à integridade física de pessoas, ou interrupção de funcionamento ou fornecimento de serviços essenciais, danos ao meio ambiente ou violação aos direitos fundamentais.

Conforme o projeto, os desenvolvedores e operadores de sistema de inteligência artificial poderão adotar programas de governança alinhados à legislação. Tal adoção, embora não seja obrigatória, poderá ser usada para demonstrar boa fé em sua atuação, o que pode ser levado em consideração em casos em que for necessário aplicar sanções por violação das regras legais.

Direitos autorais

O PL 2.338/2023 autoriza o uso automatizado de obras pelos sistemas de inteligência artificial, sem que isso constitua ofensa aos direitos autorais, por instituições de pesquisa, jornalismo, museus e bibliotecas, desde que a finalidade não seja a reprodução e distribuição da obra e que não haja prejuízo aos interesses econômicos dos detentores dos direitos autorais.

Inovação

A fim de estimular a inovação, o projeto prevê que a autoridade competente poderá autorizar, a pedido dos interessados, a criação de um ambiente regulatório experimental denominado sandbox experimental, que permite o funcionamento temporário de produtos e serviços inovadores sem o cumprimento obrigatório de todas as regras do setor, mas com o monitoramento dos órgãos reguladores.

A lei resultante da aprovação do projeto entrará em vigor um ano depois de sua publicação, de acordo com o texto.

Cláudia Beatriz:
Related Post

Privacidade e cookies: Este site utiliza cookies. Ao continuar a usar este site, você concorda com seu uso.