Menu

O modelo de negócios do Vale do Silício é incompatível com a moderação do horror e do ódio online

Gerir a enxurrada de material perturbador online é um desafio que os prestadores de serviços têm dificuldade em enfrentar, mesmo que tentem Em meados da década de 1990, quando a web era jovem e o mundo on-line fervilhava de blogs, surgiu um problema preocupante. Se você fosse um ISP que hospedasse blogs e um deles […]

sem comentários
Apoie o Cafezinho
Siga-nos no Siga-nos no Google News
Getty Images

Gerir a enxurrada de material perturbador online é um desafio que os prestadores de serviços têm dificuldade em enfrentar, mesmo que tentem

Em meados da década de 1990, quando a web era jovem e o mundo on-line fervilhava de blogs, surgiu um problema preocupante. Se você fosse um ISP que hospedasse blogs e um deles contivesse material ilegal ou difamatório, você poderia ser responsabilizado legalmente e processado até a falência. Temendo que isto retardasse drasticamente a expansão de uma tecnologia vital, dois legisladores dos EUA, Chris Cox e Ron Wyden, inseriram 26 palavras na Lei de Decência nas Comunicações de 1996, que acabou por se tornar a seção 230 da Lei de Telecomunicações do mesmo ano. As palavras em questão eram: “Nenhum fornecedor ou utilizador de um serviço informático interativo será tratado como editor ou orador de qualquer informação fornecida por outro fornecedor de conteúdos de informação”. As implicações foram profundas: a partir de agora você não terá nenhuma responsabilidade pelo conteúdo publicado em sua plataforma.

O resultado foi o aumento exponencial do conteúdo gerado pelos usuários na internet. O problema era que parte desse conteúdo era vil, difamatório ou absolutamente horrível. Mesmo que fosse, o site de hospedagem não tinha nenhuma responsabilidade por isso. Às vezes, parte desse conteúdo causou indignação pública a ponto de se tornar um problema de relações públicas para as plataformas que o hospedavam e elas começaram a praticar “moderação”.

A moderação, no entanto, tem dois problemas. Uma delas é que é muito caro devido à escala do problema: 2.500 novos vídeos são enviados a cada minuto para o YouTube, por exemplo; 1,3 bilhão de fotos são compartilhadas no Instagram todos os dias. Outra é a forma como o trabalho sujo da moderação é muitas vezes externalizado para pessoas nos países pobres, que ficam traumatizadas por terem de ver vídeos de crueldade indescritível – por ninharias. Os custos de manter os feeds das redes sociais ocidentais relativamente limpos são, portanto, suportados pelos pobres do sul global.

As plataformas sabem disso, é claro, mas ultimamente têm apresentado o que consideram ser uma ideia melhor – moderação por IA em vez de humanos: conteúdo vil sendo detectado e excluído por máquinas implacáveis ​​e inabaláveis. O que há para não gostar?

Mesmo que o Meta empregasse meio milhão de moderadores humanos, não estaria à altura da tarefa

Existem duas maneiras de responder a isso. Uma delas é através da observação de HL Mencken de que “Para cada problema complexo existe uma resposta que é clara, simples e errada”. A outra é perguntar a um cibernético. A cibernética é o estudo de como os sistemas usam informações, feedback e controle para se regularem e alcançarem os resultados desejados. É um campo que foi fundado em 1948 pelo grande matemático Norbert Wiener como o estudo científico do “controle e comunicação no animal e na máquina” e floresceu nas décadas de 1950 e 1960 em uma nova forma de pensar sobre as máquinas movidas pelo homem que chamamos de organizações.

Um dos grandes avanços na área foi feito por um psicólogo britânico, W Ross Ashby. Ele estava interessado em saber como os sistemas de feedback podem alcançar estabilidade e surgiu com o que ficou conhecido como “a lei da variedade necessária” – a ideia de que para um sistema ser estável, o número de estados que seu mecanismo de controle pode atingir (sua variedade) deve ser maior ou igual ao número de estados no sistema que está sendo controlado. Na década de 1960, isto foi reformulado como a noção de que para uma organização ser viável , deve ser capaz de lidar com a complexidade dinâmica do seu ambiente.

Parece teórico, não é? Mas com a chegada da Internet, e particularmente da Web e das redes sociais, a lei de Ashby adquiriu uma relevância sombria. Se você é Meta (nascido Facebook), digamos, e tem bilhões de usuários jogando coisas – algumas delas vis – em seus servidores a cada milissegundo, então você tem o que Ashby chamaria de problema de gerenciamento de variedade.

Na verdade, existem apenas duas maneiras de lidar com isso (a menos que você seja Elon Musk, que decidiu nem tentar). Uma delas é sufocar o fornecimento. Mas se fizer isso, estará minando o seu modelo de negócio – que consiste em ter todos na sua plataforma – e também será acusado de “censura” na terra da Primeira Emenda. A outra é ampliar sua capacidade interna de lidar com a torrente – que é “moderação”. Mas a escala do desafio é tal que mesmo que o Meta empregasse meio milhão de moderadores humanos, não estaria à altura da tarefa. Ainda assim, mesmo assim, a seção 230 iria isentá-lo da lei do país. Vencer a lei de Ashby, porém, pode revelar-se uma proposta totalmente mais difícil, mesmo para a IA.

Fique atento.

Publicado originalmente pelo The Guardian em 27/04/2024 – 16h00

Por John Naughton

Apoie o Cafezinho
Siga-nos no Siga-nos no Google News

Comentários

Os comentários aqui postados são de responsabilidade exclusiva de seus autores e não representam a opinião do site O CAFEZINHO. Todos as mensagens são moderadas. Não serão aceitos comentários com ofensas, com links externos ao site, e em letras maiúsculas. Em casos de ofensas pessoais, preconceituosas, ou que incitem o ódio e a violência, denuncie.

Escrever comentário

Escreva seu comentário

Nenhum comentário ainda, seja o primeiro!


Leia mais

Recentes

Recentes