Menu

PL das Fake News: o que muda para os usuários e para as plataformas digitais?

O projeto de lei 2630 não pretende limitar o conteúdo das redes sociais ou interferir na liberdade de expressão, mas, sim, combater postagens nocivas e ilícitas veiculadas no universo online. Folha de S. Paulo – Publicado na noite de sábado (6), a Folha de S. Paulo respondeu às principais perguntas sobre a PL das Fake […]

1 comentário
Apoie o Cafezinho
Siga-nos no Siga-nos no Google News
Foto: Lionel Bonaventure/Getty Image

O projeto de lei 2630 não pretende limitar o conteúdo das redes sociais ou interferir na liberdade de expressão, mas, sim, combater postagens nocivas e ilícitas veiculadas no universo online.

Folha de S. Paulo – Publicado na noite de sábado (6), a Folha de S. Paulo respondeu às principais perguntas sobre a PL das Fake News. Abaixo, as respostas que explicam as mudanças previstas sobre a moderação de conteúdo.

O projeto de lei não criminaliza ou sequer define fake news: a versão atual do texto tem relação com o conteúdo divulgado nas redes sociais, responsabilizando as plataformas. Apesar do nome em circulação desde 2020 ser vinculado à desinformação, esse não é o foco.

Antes, segundo o artigo 19 do Marco Civil da Internet, as plataformas eram isentas de responsabilidade pelos danos causados pelas publicações de seus usuários. O pagamento das indenizações só seria cabível se as ordens judiciais de remoção de postagem não tivessem sido seguidas, com exceções apenas em situações de direitos autorais e conteúdo de nudez não consentida.

Agora, as empresas passam a ter maior responsabilidade civil sobre o conteúdo veiculado. Com o PL 2630, surgem mais dois cenários passíveis de responsabilização: o primeiro tem relação com as postagens de determinado tema durante o “protocolo de segurança”. O segundo, sobre anúncios e posts impulsionados.

O PL busca estabelecer obrigações às plataformas sociais de controle e combate de conteúdos nocivos e ilegais. As empresas passam a ter “dever de cuidado” sobre uma lista pré-definida de crimes, além de publicações de relatórios de transparência e direitos aos usuários – como notificações em caso de moderação e possibilidade de contestação.

O chamado “dever de cuidado”: as empresas deverão prevenir e reduzir as práticas criminosas por meio da moderação de conteúdos configurados em crimes de terrorismo, violência contra crianças e adolescentes, racismo, crimes contra a democracia, incitação à suicídio, entre outros.

A moderação de conteúdo é e continuará sendo feita pelas próprias plataformas de acordo com os termos de uso de cada uma delas. O momento em que há interferência judicial determinando a remoção de postagens é quando determinada lei é infringida, como já acontece hoje.

Multas e sanções – até bloqueios, a depender da gravidade da infração, podem ser medidas punitivas para as empresas que descumprem com a nova lei. Elas também podem seguir como alvos de ações judiciais movidas por usuários em caso de postagens específicas. Essas medidas podem ir de remoção do post à indenização por danos morais.

Ainda não há definido qual órgão será responsável por analisar os casos de descumprimento sistemático das obrigações sobre o “dever de cuidado”. 

A análise será feita a partir de relatórios de risco sistêmico e de transparência, considerando “o conjunto de esforços e medidas adotadas pelos provedores, não cabendo avaliação sobre casos isolados”.

O que é análise de “risco sistêmico”? Torna-se necessária a avaliação de alguns elementos das redes sociais, por exemplo, o funcionamento dos algoritmos, sistema de moderação de conteúdo, termos de uso e aplicação deles. As empresas deverão disponibilizar anualmente os relatórios de análise levando em consideração tais aspectos.

São examinados temas de difusão de conteúdos ilícitos, a garantia e promoção da liberdade de expressão, Estado democrático de Direito e higidez do processo eleitoral, racismo e violência contra a mulher, entre outros.

O diretor executivo do InternetLab, conforme publicado pela Folha de S. Paulo, diz que “Ele em si [risco sistêmico] é um instrumento que vai incentivar a plataforma a olhar para aqueles cinco tipos de risco e desenvolver proativamente medidas de mitigação que vão impactar em conteúdo […] Vai impactar na estrutura, de quando você [plataforma], na média, vai remover mais ou menos.”

O protocolo de segurança: o projeto de lei determina três situações em que o protocolo pode ser acionado: quando houver “iminência de riscos”, negligência ou insuficiência da ação da empresa. 

Durante 30 dias – com possibilidade de prorrogação, as empresas-alvo não seriam mais isentas de responsabilidade por conteúdos de determinados temas especificados no protocolo. Diferente do Marco Civil, que garantia tal isenção, basta a plataforma ter sido notificada de uma postagem e não ter apagado para ser condenada às sanções e indenizações, em caso de ação judicial por danos.

As etapas e objetivos da instauração do protocolo ainda não foram definidos, bem como o órgão administrativo atribuído a ele. Esta regulamentação será feita posteriormente à aprovação da lei.

A respeito dos anúncios e post impulsionados, as plataformas podem ser responsabilizadas civilmente por eles, ainda sem o descumprimento da ação judicial de remoção. A lei prevê impacto sobre o tipo de anúncio permitido nas plataformas. Para isso, é preciso que alguém entre na Justiça contra um anunciante ou autor de post, o juiz julgue o dano e a responsabilidade da plataforma.

A fiscalização e aplicação da lei também é um aspecto não definido. Assim, ainda é necessário o estabelecimento de órgãos para o controle e detalhamento dos procedimentos da lei, além dos encarregados pelos chamados “dever de cuidado” e do protocolo de segurança. Se as empresas entenderem que o órgão escolhido está abusando de suas prerrogativas, o Poder Judiciário pode ser acionado e as medidas tomadas serão questionadas.

Segundo veiculado na matéria, a pesquisadora da fundação Alexander von Humboldt e ativista da Coalizão Direitos na Rede, Bruna Martins dos Santos, a censura não é uma perspectiva da PL 2630. “A abordagem vai ser em cima de conteúdos que já estão previstos em lei, como crimes, e normalmente já são moderados”, afirma.

Apoie o Cafezinho
Siga-nos no Siga-nos no Google News

Comentários

Os comentários aqui postados são de responsabilidade exclusiva de seus autores e não representam a opinião do site O CAFEZINHO. Todos as mensagens são moderadas. Não serão aceitos comentários com ofensas, com links externos ao site, e em letras maiúsculas. Em casos de ofensas pessoais, preconceituosas, ou que incitem o ódio e a violência, denuncie.

Escrever comentário

Escreva seu comentário

Kleiton

07/05/2023 - 14h21

Quando alguém decide a princípio para você ou que você pode ou não pode ler, ver ou ouvir se chama censura previa. O resto são cretinices.

Eu como qualquer um de nós deve poder ler, ver e ouvir tudo e o exato oposto de tudo e depois acreditar no que quiser. O resto não existe.

A liberdade de expressão não possuí regras previas mas só eventuais consequências.

O ódio é um sentimento humano e cada um de nós odeia quem quiser.


Leia mais

Recentes

Recentes