iFood e o racismo algorítmico… dos outros

ag brasil rosa ifood entregados de aplicativos uberizacao precarizacao e1642781489684
Foto: Rovena Rosa/Agência Brasil

Empresa foi obrigada a indenizar R$60 mil e editou postagens em seu blog depois de ser condenada por racismo algorítmico.

Juliane Cintra, Gustavo Souza e Tarcizio Silva

Fonte: Le Monde Diplomatique Brasil
Data original da publicação: 10/09/2025

Em junho, virou notícia um caso de racismo algorítmico no qual a 22ª Vara do Trabalho de Brasília condenou o iFood a pagar R$ 60 mil de indenização a um entregador que teve uma série de problemas com o aplicativo até ser permanentemente banido. Em 2024, o entregador, Tiago Alves, homem negro, estava deixando o cabelo crespo crescer. No início de um dia de trabalho, pouco depois de registrar-se pelo sistema que inclui avaliação biométrica através de reconhecimento facial, foi bloqueado. Recorreu ao aplicativo, recebeu a informação de que estava sendo bloqueado pois outra pessoa teria usado o aplicativo. A pessoa na foto? Ele mesmo. Tiago tentou questionar e entender o problema, mas não conseguiu revisar a decisão. Em uma última mensagem incisiva, pelo próprio aplicativo, a iFood argumentou que “devido à identificação de problemas graves com o seu reconhecimento facial, infelizmente a sua conta não será reativada”.  

Em entrevista ao G1 Distrito Federal, Tiago Alves explicou como se sentiu quando a advogada explicou-lhe como as disparidades na ferramenta de reconhecimento facial levaram ao início do problema. 

“No começo não [percebi], depois fiquei analisando. No dia que procurei a advogada, eu descobri sobre racismo algorítmico. Fiquei bastante triste, me tiraram uma renda bem significativa, contava com esse dinheiro toda semana pra pagar minhas contas, aí por um erro e por racismo me bloquearam. Depois, a tristeza virou ódio.” 

A mensagem se refere aos fartos dados sobre os problemas que ferramentas de reconhecimento facial exibem em relação a diferentes grupos sociais, notadamente contra pessoas de grupos racialmente minoritários, por uma série de motivos. Considerando que estas disparidades são amplamente conhecidas há muitos anos e que a iFood é uma empresa de tecnologia, anunciando bilhões de investimento, poderíamos imaginar que seus sistemas passam por controle de qualidade técnico, certo? 

Não foi o caso, mas o problema não parou por aí. Depois do erro inicial que já gerou danos imediatos ligados à autoimagem, reconhecimento de humanidade e fonte de renda do trabalhador, Tiago Alves enfrentou diversas outras barreiras. Não conseguiu ser atendido dignamente por ninguém da empresa, não teve direito a contestação ou revisão. A decisão do juiz toca nos vários pontos e reconhece o racismo algorítmico: 

“Desse modo, reconheço como verdadeiros: a suspensão do contrato de trabalho por culpa exclusiva da Reclamada; os prejuízos financeiros e psicológicos sofridos pelo Reclamante em razão da impossibilidade de laborar em favor da Reclamada; e a falha racista na ferramenta utilizada para reconhecimento facial”, diz a decisão. 

Bom, estamos falando de uma empresa de entregas que cresceu na onda da “uberização”, e pesquisadores argumentam que seu modelo está diretamente ligado à erosão de direitos trabalhistas. Aparentemente, nada fora do esperado. Mas, em seus esforços de lavagem de imagem, a iFood já reconheceu anteriormente a noção de racismo algorítmico. 

Limpando a barra 

As empresas investem dinheiro para construir uma imagem palatável e amigável. Em muitos casos, a iniciativa privada opta por medidas superficiais para garantir um verniz de valorização à diversidade e oportunidades iguais a todos. Neste esforço, o blog do iFood publicou conteúdo sobre racismo algorítmico ainda em abril de 2023, mas, em agosto de 2025, apagou a postagem e substituiu por outra, após a condenação trabalhista se tornar pública. 

Na nova versão, o iFood removeu informações importantes. Ao apontar como a tecnologia pode prejudicar pessoas que não são brancas, a empresa apontava que “Isso acontece quando o racismo já vem incorporado aos algoritmos ou sistemas automatizados de tomada de decisão.” No entanto, após ser condenada substituiu a postagem por um texto maior, mais vago, que implicasse menos ao iFood.  

Ao analisar as duas versões, algumas alterações saltam aos olhos. O título de um tópico intitulado “Como a tecnologia pode discriminar pessoas” foi suprimido. A redação do texto anterior foi adaptada, estabeleceu-se um novo tom que evidencia um ajuste de narrativa, expresso pelo aumento no número de palavras e por outras estratégias que, em conjunto, suavizam o discurso anterior e tornam quase imperceptível o reposicionamento da marca no debate. 

Por fim, a postagem lista atitudes que as empresas podem adotar para enfrentar o racismo algorítmico, como auditoria constante, transparência na tomada de decisão, diversidade nas equipes e uso de dados representativos. No entanto, ao responder à pergunta “Quais ações o iFood tem realizado para combater o racismo algorítmico?”, nenhuma destas atitudes é listada. 

O que se deve considerar, nesse contexto, é que mesmo as medidas mencionadas avançam pouco no enfrentamento real do problema. Isso ocorre porque deixam de lado o pilar central para combater os vieses discriminatórios em plataformas digitais relacionadas ao mundo do trabalho: a valorização da experiência dos trabalhadores. 

Não é possível falar em composição plural de equipes, monitoramento de sistemas ou qualquer outra medida sem reconhecer, em sua estrutura, a trajetória, a corporeidade e o território das pessoas que garantem a existência e o lucro das plataformas. É preciso abandonar a perspectiva que enxerga determinados grupos sociais apenas como usuários ou consumidores de serviços tecnológicos. Assegurar direitos humanos em sistemas algorítmicos exige que comunidades sejam reconhecidas como interlocutoras centrais na criação de ambientes seguros e de modelos de negócio comprometidos com a justiça social. 

Mesmo as políticas de diversidade, quando não articuladas a uma escuta efetiva das comunidades, acabam por camuflar o cerne da questão: nenhuma tecnologia deveria ser desenvolvida sem incorporar como princípio a participação dos setores diretamente afetados. Entretanto, tal debate costuma ser capturado por um discurso que afasta populações vulnerabilizadas, sustentando a ideia de que se trata de um campo exclusivo de especialistas. Nesse processo, a tecnofobia é instrumentalizada para negar a autodeterminação digital de determinados grupos sociais, como pessoas negras, indígenas, trabalhadores precarizados, entre outros segmentos em desvantagem social, invisibilizando e interditando sua capacidade inventiva também na esfera técnico científica da inovação tecnológica. Essa engrenagem retroalimenta a exclusão, naturaliza vieses discriminatórios e mantém uma lógica de poder em que a violência é monetizada como parte da alta margem de lucro das plataformas. 

Juliane Cintra é jornalista, mestra em direitos humanos e coordenadora do projeto Nanet

Gustavo Souza é bacharel em direito e trabalha como especialista em inteligência artificial

Tarcizio Silva é comunicador, doutor em ciências humanas e sociais e consultor do projeto Nanet

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *