Discriminação algorítmica: manutenção, reprodução e ampliação

Foto: Pavel Danilyuk

Cássio da Silva Calvete

A discriminação algorítmica é mais um fruto da falta de transparência dos algoritmos que orientam a IA. Como a IA é alimentada por decisões passadas que orientam decisões futuras, evidentemente ela (até por não ser humana) não cria discriminações, apenas as reproduz. Discriminações passadas são transferidas para o futuro. Assim sendo, dois novos problemas se apresentam nessa seara: a manutenção e reprodução da discriminação e sua ampliação (WACHTER, S.MITTELSTADT, B. RUSSEL, C. 2021; FOGAROLLI FILHO, 2022).

A manutenção e reprodução da discriminação realizada pelas novas tecnologias, particularmente pela IA, ocorrem revestidas de tecnicidade falsamente neutra encoberta pela falta de transparência do ordenamento algorítmico e da forma de utilização dos dados. O grande e novo problema que se apresenta não é propriamente a discriminação, que sempre existiu, mas sim a forma como ela é perpetuada e o momento em que isso é realizado. Essa manutenção da discriminação encoberta pela opacidade dos algoritmos está ocorrendo justamente em um momento em que as lutas pela igualdade de direitos e pela não discriminação estão ganhando espaço na sociedade e obtendo conquistas importantes. Sendo bastante claro, me refiro aos avanços obtidos contra discriminação das mulheres, negros, LGBTQIA +, imigrantes e pessoas com deficiência.

Outro aspecto referente ao problema da discriminação trazido pelas novas tecnologias é a escala que ela ganha. Enquanto no passado (mesmo no passado bem recente) a discriminação, apesar de ser estrutural e geral, se manifestava de forma pontual, pessoal e presencial, no presente ela se manifesta de forma geral, impessoal e on-line ganhando escalas impressionantes. Isso se deve ao fato de agora ser incorporada em softwares que são produzidos e vendidos de forma escalar: softwares para seleção de candidatos, softwares para avaliação de desempenho e, em outro campo que não o campo das relações de trabalho, para ilustrar melhor, softwares de leitura facial. (WACHTER, S.MITTELSTADT, B. RUSSEL, C. 2021; FOGAROLLI FILHO, 2022).

 Essa manutenção, reprodução e ampliação da discriminação se manifesta também impactando as condições de trabalho e o tempo de trabalho dos trabalhadores que são discriminados. Esses impactos podem vir principalmente na forma de não contratação, não promoção e de demissão gerados por um software que valora mais positivamente características próprias de pessoas brancas, do sexo masculino, heterossexual e nativas. A não contratação e demissão por si só impactam de forma absoluta o tempo de trabalho das pessoas discriminadas e, para obter promoção diante de um software que discrimina, a pessoa com o perfil “desfavorável” tem que compensar a sua “desvantagem” com trabalhos mais intensos, extensos e flexíveis.

Bibliografia

FOGAROLLI FILHO, P.R. Discriminação Algorítmica nas Relações de Trabalho. Rio de Janeiro: Editora Lumen Juris, 2022.

WACHTER, S. MITTELSTADT, B. RUSSEL, C. Bias Preservation in Machine Learning: The Legality of Fairness Metrics Under EU Non-Discrimination Law. West Virginia Law Review, Vol. 123, No. 3, Available at SSRN: https://ssrn.com/abstract=3792772 or http://dx.doi.org/10.2139/ssrn.3792772. January 15, 2021.

 

Cássio da Silva Calvete é Professor associado do Departamento de Economia e Relações Internacionais da Universidade Federal do Rio Grande do Sul (UFRGS), doutor em Economia Social e do Trabalho pela UNICAMP e com pós-doutorado pela Universidade de Oxford.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *