Quando a IA não te reconhece: o algoritmo vê a cor da sua pele?

Por Danisléia da Rosa e Camila Henning Salmoria

A promessa de neutralidade algorítmica se desmancha no ar quando confrontada com a realidade dos corpos racializados. A inteligência artificial, exaltada por sua eficiência e precisão, tem reproduzido, com verniz técnico, preconceitos tão antigos quanto a própria colonização. Para mulheres negras, o risco não é apenas a invisibilidade, mas o erro sistemático, a criminalização injusta, a exclusão silenciosa e o desrespeito técnico-científico travestido de inovação.

A tecnologia, em vez de romper com a desigualdade histórica, muitas vezes a aprofunda. A IA moderna, especialmente aquela baseada em sistemas de reconhecimento facial, tem apresentado índices alarmantes de erro ao identificar rostos de mulheres negras. O relato apresentado no documentário Coded Bias pela pesquisadora Joy Buolamwini, cuja face não foi reconhecida até que ela colocasse uma máscara branca, é mais do que simbólico: é uma denúncia concreta daquilo que os dados silenciam, mas os corpos sentem. E não é apenas ela. Casos brasileiros, como prisões indevidas por reconhecimento facial, reiteram que a tecnologia está longe de ser cega à cor da pele. O que ela vê, ela aprende do mundo e o mundo a ensinou a ser racista.

Se os algoritmos aprendem com dados históricos, é inevitável que aprendam também os vícios e os pactos implícitos do racismo estrutural. Os dados são espelhos de uma sociedade marcada pelo pacto narcísico da branquitude, conceito de Cida Bento. É um pacto silencioso, mas eficaz, que opera no cerne das instituições e que, agora, encontra nos sistemas algorítmicos um aliado involuntário, porém poderoso. O Google Photos, por exemplo, já rotulou imagens de pessoas negras como “gorilas” em seu sistema de reconhecimento visual. Um erro que, apesar de corrigido, escancara o abismo ético e técnico diante de nós.

A atualidade do problema foi mais uma vez evidenciada no fim de maio desse ano, no caso de Bruna de Oliveira, nutricionista e mestre em ciências sociais, que denunciou o LinkedIn por racismo algorítmico após a plataforma lhe sugerir vagas de auxiliar de serviços gerais, apesar de seu alto grau de qualificação. Bruna, que é negra, afirmou a recomendação como reflexo de discriminação algorítmica baseada em estereótipos raciais. Embora o LinkedIn tenha reconhecido o erro, negou que tenha ocorrido por motivo de raça. O episódio reacende o debate urgente sobre a opacidade dos sistemas automatizados e a forma como eles perpetuam desigualdades estruturais, mesmo nas plataformas que prometem ampliar oportunidades profissionais.

Enquanto isso, o feminismo branco segue priorizando pautas que não interpelam a vida das mulheres negras. Dentro do movimento, é urgente incorporar a crítica interseccional proposta por autoras como Kimberlé Crenshaw, que analisa como gênero, raça, classe e outras camadas de identidade se sobrepõem e geram formas únicas de opressão. Quando algoritmos deixam de reconhecer um rosto, deixam também de reconhecer uma história e, com isso, reiteram o apagamento de mulheres negras que já são invisibilizadas na política, no Judiciário, na ciência e, agora, também na tecnologia.

E os dados não mentem: segundo o Censo de 2022, a maioria da população brasileira é negra (10,2%) ou parda (45,3%). Contudo, essa maioria permanece ausente dos espaços de decisão e de criação tecnológica. Onde estão as mulheres negras nas equipes que treinam, testam e validam os algoritmos? Onde estão suas vozes nas comissões de ética em IA? A resposta é dolorosa: estão fora. Ou, quando muito, são lembradas como exceção — e não como parte fundamental da equação da justiça tecnológica.

O caso do sistema COMPAS, nos Estados Unidos, que previa o risco de reincidência de crimes com viés racial explícito, é um exemplo paradigmático. Pessoas negras eram classificadas como mais perigosas do que brancas com histórico semelhante. A mesma lógica é reproduzida aqui: no Brasil, o reconhecimento facial já levou à prisão mulheres negras inocentes com base em imagens imprecisas. A justificativa técnica é sempre a mesma: “erro do sistema”. Mas quem criou o sistema? Com quais dados? Para atender a quais corpos e silenciar quais existências?

A tecnologia, dizem, é uma ferramenta. Mas toda ferramenta carrega em si os valores de quem a forjou. E, neste momento, a IA está sendo moldada por um olhar que desconhece ou desconsidera a realidade das mulheres negras. Mais do que questionar o funcionamento técnico desses sistemas, é preciso interrogar a epistemologia que os sustenta. De que vidas partem os modelos de treinamento? Quais realidades são consideradas normais e quais são tratadas como desvios?

Diante desse cenário, a luta por justiça algorítmica se torna parte inseparável da luta feminista. Um feminismo comprometido com a equidade precisa disputar os códigos, os dados e os sistemas que estão organizando a vida social. É preciso estar presente nos comitês de ética digital, nas comissões de regulação, nas empresas de tecnologia e nas salas de aula de ciência da computação. Porque o apagamento digital é apenas a nova face do velho racismo — e dele não nos salvaremos com neutralidade, mas com enfrentamento.

Ruha Benjamin alerta que a tecnologia não é neutra, uma vez que reflete a sociedade que a construiu e carrega as marcas de quem detém o poder e as cicatrizes de quem foi historicamente excluído. Cicatrizes que têm cor, gênero, endereço e história, que são visíveis, mesmo quando o algoritmo insiste em apagá-las.

Se as tecnologias podem ser usadas tanto para perpetuar quanto para desmantelar desigualdades, a pergunta é inevitável e feminista: o que vamos fazer com esse poder?

Referências

ARAÚJO, Marina; SANTOS, Edvaldo. Servidora pública é confundida com foragida da justiça por sistema de reconhecimento facial da polícia do RJ. G1, Bom Dia Rio, 08 jul. 2024. Disponível em: https://g1.globo.com/rj/rio-de-janeiro/noticia/2024/07/08/mulher-e-confundida-com-foragida-da-justica-por-sistema.ghtml. Acesso em: 16 jun. 2025.

BENTO, Maria Aparecida da Silva. Branquitude. Fundação Tide Setubal. Disponível em: https://fundacaotidesetubal.org.br/glossario/branquitude/. Acesso em: 16 jun. 2025.

BOAS, Pedro Vilas; BASSI, Fernanda. LinkedIn sugere vagas de auxiliar para nutricionista: ‘Algoritmo racista’. UOL Tilt, São Paulo, 30 maio 2025. Disponível em: https://www.uol.com.br/tilt/noticias/redacao/2025/05/30/racismo-algoritmico-linkedin.htm. Acesso em: 16 jun. 2025.

CRENSHAW, Kimberlé. A intersecionalidade na discriminação de raça e gênero. VV. AA. Cruzamento: raça e gênero. Brasília: Unifem, v. 1, n. 1, p. 7-16, 2004.

EL PAÍS Brasil. “Tecnologia: Google conserta seu algoritmo ‘racista’ apagando os gorilas”. 14 jan. 2018. Disponível em: https://brasil.elpais.com/brasil/2018/01/14/tecnologia/1515955554_803955.html. Acesso em: 16 jun. 2025.

KANTAYYA, Shalini. Coded Bias. Documentário dirigido por Shalini Kantayya, com pesquisa de Joy Buolamwini; 7th Empire Media; Chicken And Egg Pictures; Ford Foundation – Just Films; Women Make Movies; ITVS International; EUA, 2020. 90 min. 11 de novembro de 2020.

PINHONI, Marina; CROQUER, Gabriel. Censo 2022: Pela 1ª vez, Brasil se declara mais pardo que branco; populações preta e indígena também crescem. G1, Economia, 22 dez. 2023. Disponível em: https://g1.globo.com/economia/censo/noticia/2023/12/22/censo-2022-cor-ou-raca.ghtml. Acesso em: 16 jun. 2025.

WASHINGTON, Anne L. How to argue with an algorithm: Lessons from the COMPAS-ProPublica debate. Colo. Tech. LJ, v. 17, p. 131, 2018.

 

Leave a Reply

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Most Recent Posts

  • All Posts
  • Gênero & Política
  • Gênero & Trabalho
  • O Olhar de Todas
  • Resenhas
  • Violência de Gênero

Explore Our Services

Reasonable estimating be alteration we themselves entreaties me of reasonably.

Tags

    Promovemos igualdade de Gênero Buscando a democratização do conhecimento

    Links importantes

    Política de Privacidade

    Links importantes

    Política de Privacidade

    © 2025 Desenvolvido por Holycom ✨