Racismo digital floresce sob Trump e a IA: ‘O Estado está distorcendo a realidade’

Guardian Design/Getty Images

De deepfakes do TikTok a difamações divulgadas pela Casa Branca, vídeos falsos baseados em arquétipos negros estão se proliferando desenfreadamente, colocando usuários negros em risco.

No final do ano passado, quando a paralisação do governo americano interrompeu o programa de assistência alimentar SNAP, do qual famílias de baixa renda dependem para comprar mantimentos, vídeos nas redes sociais retrataram as consequências em cenas frenéticas. “Vou ser sincera com vocês”, disse uma mulher negra em um post viral do TikTok, “recebo mais de US$ 2.500 por mês em cupons. Vendo-os, o equivalente a US$ 2.000, por cerca de US$ 1.200 a US$ 1.500 em dinheiro.” Outra mulher negra reclamou da responsabilidade dos contribuintes com seus sete filhos, frutos de sete relacionamentos diferentes, e uma terceira teve um ataque de nervos depois que seus cupons de alimentação foram recusados ​​em uma lanchonete.

Marcas d’água visíveis identificavam alguns vídeos como gerados por IA – aparentemente, muito tênues para os comentaristas racistas e aproveitadores que acreditavam, com entusiasmo, que o frenesi era real. “Tem gente tratando isso como um bico, vendendo as marcas d’água, abusando do sistema”, reclamou o comentarista conservador Amir Odom. A Fox News noticiou os deepfakes do Snapchat como se fossem autênticos, antes de publicar uma correção . O apresentador da Newsmax, Rob Schmitt, afirmou que as pessoas estavam usando o Snapchat “para fazer as unhas, colocar apliques e arrumar o cabelo”. (Em meio à indignação, um fato básico passou despercebido: americanos brancos representam 37% dos 42 milhões de usuários do Snapchat.)

Os vídeos falsos são meros fragmentos no mosaico crescente do blackface digital, um padrão que se intensificou nos últimos dois anos com a ampla acessibilidade das ferramentas de vídeo generativas de IA. “Houve uma aceleração massiva”, afirma Safiya Umoja Noble, professora de estudos de gênero da UCLA e autora de “Algoritmos da Opressão”, obra que se concentra nos preconceitos digitais contra mulheres negras em particular. “Os vídeos de blackface digital estão, na verdade, explorando os mesmos estereótipos e tropos racistas e sexistas que vêm sendo usados ​​há séculos.” O resultado final é uma camada superficial de negritude desprovida de obrigação ou responsabilidade cultural – um espetáculo de menestréis em poucas palavras.

Cunhado em um artigo acadêmico de 2006, o termo “blackface digital” descreve uma forma de mercantilização da cultura negra reaproveitada para expressão online por pessoas não negras. Os exemplos são variados: postagens em inglês vernáculo afro-americano, o uso de emojis de pele mais escura, memes de reação com Beyoncé, Katt Williams e outros ícones negros de estilo.

“As primeiras pesquisas sobre blackface digital começaram com jogadores brancos usando bitmojis de uma raça diferente e alterando seu vocabulário para se representarem”, diz Mia Moody, professora de jornalismo da Universidade Baylor, cujo livro, Blackface Memes, que será lançado em breve, relaciona o papel dos usuários negros na criação e disseminação de tendências online com o subsequente blackface digital. “Isso faz parte da apropriação cultural, da aquisição de capital cultural. Talvez você seja um cara branco nerd, mas se usar um avatar descolado de um cara negro com dreadlocks, as pessoas vão te respeitar. De repente, você se torna interessante.”

Durante a expansão da memologia para vídeos curtos, a expressão negra tem sido cada vez mais dissociada de autoria, contexto ou consequências. Acadêmicos da cultura da internet afirmam que alguns criadores de conteúdo online não brancos usam avatares gerados por IA, modelados a partir de rostos negros familiares – a influenciadora de beleza, o podcaster de cultura, o entrevistador de rua; eles se inserem nos feeds ao lado de criadores de conteúdo negros reais. Grandes modelos de linguagem vasculham espaços digitais que ganharam prestígio com a fala e o humor negros, absorvendo seu tom e gírias. A Hume AI é uma das muitas empresas que oferecem vozes sintéticas para podcasts e audiolivros, como “mulher negra com leve sotaque da Louisiana” ou “homem afro-americano de meia-idade com um tom de sabedoria conquistada com esforço”. Na maioria dos casos, os criadores cuja fala é extraída do YouTube, podcasts e mídias sociais não recebem nenhuma compensação, muito menos sabem que suas personalidades moldaram esses modelos.

Os vídeos de reação do Snapchat, no entanto, representaram uma escalada notável na popularização do blackface digital – menos disfarçamento e mais estereótipos de nível extremo. Muitos desses vídeos foram criados com o aplicativo de texto para vídeo Sora, da OpenAI. À medida que a popularidade do Sora crescia em 2025, os usuários exploraram seu hiper-realismo para macular a imagem de Martin Luther King Jr., gerando um debate ético sobre a “ressurreição sintética”. Deepfakes o mostravam furtando em lojas, lutando com Malcolm X e proferindo palavrões durante seu discurso “Eu Tenho um Sonho”. Influenciadores conservadores inundaram as redes sociais com abraços gerados por IA entre King e Charlie Kirk, fundindo seus legados conflitantes e o martírio cultural. Bernice King, filha de MLK e diretora de sua organização sem fins lucrativos em Atlanta, criticou a propaganda enganosa como “tolice”.

Inevitavelmente, a Casa Branca de Trump entrou na onda. Em janeiro, a conta oficial da Casa Branca, @WhiteHouseX, publicou uma foto manipulada da ativista de Minnesota, Nekima Levy Armstrong, com a pele escura e chorando, após sua prisão em uma manifestação pacífica contra o ICE (Serviço de Imigração e Alfândega dos Estados Unidos). No início deste mês, uma imagem retratando os Obamas como macacos foi divulgada pela própria conta do Trump no Truth Social.

O blackface permanece nas entranhas da mídia de massa americana, mesmo evoluindo em ritmo acelerado. Suas raízes remontam às revistas de menestréis do início do século XIX; artistas brancos aplicavam tinta facial feita de rolhas carbonizadas e lábios brancos exagerados para caricaturar traços negros, encenando rotinas exageradas de preguiça, palhaçadas e hipersexualidade típicas da população negra. Thomas D. Rice, um dramaturgo de Manhattan, alcançou a fama na década de 1830 interpretando um malandro desengonçado chamado Jim Crow – um nome que rapidamente se tornou sinônimo das políticas de segregação racial impostas no sul dos Estados Unidos, que perduraram até a Lei dos Direitos Civis de 1964.

Em seu auge, os shows de menestréis eram a forma dominante de entretenimento americano – refletida em charges de jornais e nos programas de rádio extremamente populares de Amos ‘n’ Andy. Após a Guerra Civil, os artistas negros foram em grande parte forçados a adotar elementos dos shows de menestréis, em detrimento de sua individualidade, apenas para conseguirem se firmar no palco. “Os objetivos eram, primeiro, ganhar dinheiro para ajudar na educação dos mais jovens e, segundo, tentar dissipar o ressentimento que existia em relação aos negros”, explicou Tom Fletcher, menestrel e ator de vaudeville por quase 70 anos, que faleceu em 1954.

Mesmo com o declínio do minstrel show no início do século XX, seus resquícios tóxicos permaneceram na cultura americana — desde os corvos arrastados do Dumbo da Disney, passando pelo infame roast de Ted Danson com Whoopi Goldberg em 1993, até o desfile anual de foliões brancos no Halloween com fantasias raciais. Há uma década, quando a internet ainda era uma espécie de caixa-preta, pesquisadores como Noble e Joy Buolamwini, do MIT, já alertavam sobre os vieses raciais inerentes à programação de algoritmos relacionados a tratamentos médicos, pedidos de empréstimo, decisões de contratação e reconhecimento facial. Agora, o problema está exposto, disseminando-se de forma mais ampla e profunda do que qualquer piada de mau gosto jamais conseguiria.

Empresas de tecnologia têm se esforçado para conter a onda de blackface digital. Cedendo à reação pública, a família de King e outros espólios proeminentes, a OpenAI, o Google e o gerador de imagens de IA Midjourney proibiram deepfakes de King e outros ícones americanos. Em janeiro de 2025, a Meta excluiu dois de seus próprios personagens de IA com blackface – um aposentado chamado Vovô Brian e Liv, descrita como uma “orgulhosa mãe negra queer” e “contadora da verdade” – após alegações de que sua equipe de desenvolvimento não era diversa, o que gerou uma tempestade de críticas. Instagram, TikTok e outras plataformas fizeram algumas tentativas de remover vídeos virais de blackface digital, com resultados tímidos. No verão passado, os esforços para replicar o Bigfoot Baddie – o avatar de IA de uma mulher negra como um híbrido de humano e yeti com perucas rosas, unhas de acrílico e toucas de cabelo, criado pela Veo AI do Google – se transformaram em uma verdadeira febre nas redes sociais, com alguns usuários até mesmo criando cursos de como fazer. O avatar ainda está presente nas redes sociais.

A Black in AI e o Distributed AI Research Institute (Dair) estão entre os poucos grupos de afinidade que têm defendido a diversidade e a participação da comunidade na construção de modelos de IA para combater o viés de programação. O AI Now Institute e a Partnership on AI destacaram os riscos de sistemas de IA aprenderem com dados de comunidades marginalizadas e observaram que empresas de tecnologia poderiam fornecer mecanismos, como a opção de exclusão de dados, para ajudar a limitar usos prejudiciais ou exploratórios. Mas a adoção em larga escala tem sido extremamente lenta.

“Só o YouTube tem cerca de 400 horas de conteúdo sendo carregadas por minuto”, diz Noble. “Com a geração de IA, essas empresas de tecnologia não conseguem gerenciar o que entra em seus sistemas. Então, elas não gerenciam. Ou fazem o que é absolutamente imprescindível para o governo dos EUA. Mas se você tem um regime autoritário no poder, ele pode usar seus sistemas para facilitar a propaganda.”

Embora o impacto preciso do blackface digital gerado por IA seja difícil de quantificar, seu uso pelo governo Trump destaca seu potencial como uma poderosa ferramenta de desinformação oficial. A publicação no Obama Truth Social reviveu um insulto que persiste há anos em recantos obscuros da internet, e que rima com os esforços contínuos de Trump para denegrir a imagem da ex-primeira família. (Trump negou responsabilidade direta e se recusou a pedir desculpas pela publicação, que foi removida.) Enquanto isso, a imagem manipulada de Armstrong pela Casa Branca, alterada a partir de uma foto real tirada pelo Departamento de Segurança Interna e publicada em sua conta oficial no Twitter, foi vista como uma operação psicológica orquestrada por um governo que trabalha em estreita colaboração com empresas de tecnologia para rastrear ativistas e outros considerados inimigos do Estado.

Além de disseminar o preconceito como notícia, o blackface digital expõe usuários negros a um nível de abuso e assédio personalizado que remete aos tempos áureos dos shows de menestréis, quando racistas tinham total liberdade para expressar seu preconceito sem serem questionados. E, assim como naquela época, parece haver pouco que possa ser feito para conter a virulência. “Vivemos em um Estados Unidos com uma agenda aberta, sem restrições, anti-direitos civis, anti-imigrantes, anti-negros, anti-LGBTQ e contrária a políticas de assistência social para pessoas de baixa renda”, afirma Noble. “Encontrar material para sustentar essa posição é apenas uma questão de o Estado distorcer a realidade para atender aos seus imperativos. E isso é facilmente feito quando todas as empresas de tecnologia se alinham com a Casa Branca.”

Ainda assim, Moody mantém a esperança de que o fascínio atual pelo blackface digital em breve se torne tão antiquado e desagradável quanto a variante analógica. Afinal, ela já viu esse filme antes. “No momento, as pessoas estão apenas experimentando com a tecnologia de IA e se divertindo para ver até onde podem ir”, diz ela. “Quando superarmos essa fase, veremos menos disso. Elas passarão para outra coisa. Ou estarão se candidatando a um emprego, e será constrangedor. Basta olhar para a história.”

Publicado originalmente pelo The Guardian em 19/02/2026

Por André Lawrence

Redação:
Related Post

Privacidade e cookies: Este site utiliza cookies. Ao continuar a usar este site, você concorda com seu uso.