A assimetria de informações é irmã siamesa da falta de transparência

Imagem: Pexels

Cássio da Silva Calvete

Intrínseco à falta de transparência está a assimetria de informações. Todas as programações de IA, dos algoritmos e softwares de gestão são feitas pelas empresas ou contratadas por elas. Portanto, a forma como são elaboradas, a definição de critérios, de métricas, de avaliação e decisões é de conhecimento da empresa empregadora, mas não é de conhecimento do trabalhador. Abílio (2020, p. 119) afirma que “o trabalhador não tem clareza sobre as regras que operam na definição de metas e bonificações (…) o trabalhador vive disponível para o trabalho, sem saber como opera seu próprio recrutamento”. Para Adams-Prassl et al. (2023) a gestão algorítmica utiliza as informações recolhidas dos trabalhadores para dar suporte ou mesmo determinar vários aspectos das relações de trabalho como contratação, remuneração, promoções e a extensão e a intensidade do tempo de trabalho. Dada sua importância na gestão de pessoal, apontam como sendo um dos grandes problemas da gestão algorítmica, a assimetria de informações e também a falha na regulamentação para acabar ou minimizar essa assimetria. As empresas decidem e determinam vários aspectos das relações de trabalho com dados detalhados dos indivíduos: suas preferências, performance e comportamento.

Katsabian (2023) destaca que com a gestão algorítmica a balança do poder pende ainda mais para o empregador. O empregador tem acesso a quase todas as informações sobre todos os trabalhadores de forma individual e coletiva e com tempo e facilidade para manipulá-las (calcular média, desvio padrão, variância, moda etc.) e analisá-las. Enquanto os trabalhadores não sabem nem mesmo quais as informações geradas por eles são recolhidas e muito menos como são utilizadas. Portanto, se estabelece claramente uma assimetria de informações, com o agravante que os algorítmicos e a IA cumprem também o papel de organizar, monitorar, supervisionar e avaliar a performance e o comportamento dos trabalhadores (KATSABIAN, 2023; ADAMS-PRASSL et al., 2023).

Dubal (2023) em sua análise vai além, a autora coloca que dada a capacidade das empresas processarem grande volumes de dados e a assimetria de informações, as empresas sabem calcular exatamente a remuneração mínima necessária para obter a mão de obra necessária em cada hora do dia e local para execução da tarefa enquanto, os trabalhadores, na maior parte das vezes não tem idéia como ela é definida. Dubal (2023, p.7) coloca que o salário de trabalhadores em plataformas digitais, que estão sob gestão algorítmica, é personalizado e que é “determinado através de um sistema obscuro e complexo que torna quase impossível aos trabalhadores preverem ou compreenderem a sua remuneração em constante mudança e, frequentemente, em declínio”.

Teachout (2023), que também faz referência ao salário individualizado, usa a expressão “caixa preta” para se referir aos algoritmos que definem a remuneração a ser paga por tarefa executada para trabalhadores na gig economia, e acrescenta que essa forma de remuneração está prestes a se expandir para todos os setores da economia. Enquanto anteriormente os motoristas de aplicativos conseguiam saber o quanto receberiam com base na distância percorrida e no tempo que levariam, hoje não conseguem saber, tendo em vista que as remunerações são definidas por um algoritmo complicado e que eles não têm acesso. Segundo a autora, os trabalhadores não têm como ter ideia de como será formada sua remuneração tendo em vista que essa definição é dada pela combinação de vários fatores diferentes: perfil dos motoristas, tarifa dinâmica orientada pela procura, gameficação, experimentação e o próprio pagamento que acompanha a tarefa.

Com base na literatura utilizada, fica evidente que os dados recolhidos pela gestão algorítmica, são utilizados para determinar, entre muitas coisas, os salários, a distribuição, a extensão e a intensidade do tempo de trabalho. E também que, esse recolhimento bem como a utilização das informações, não são transparentes e por consequência as informações são assimétricas, impondo enorme desvantagem no poder de barganha individual e coletivo dos trabalhadores. Katsabian (2023), Adams-Prassl et al. (2023), Dubal (2023) e Teachout (2023) defendem a necessidade de acabar com a assimetria de informações para melhor equilibrar o conflito entre capital e trabalho. Segundo os autores, os trabalhadores e/ou seus representantes devem ter conhecimento da existência e de como funcionam os algoritmos e devem ter acesso a todos os dados recolhidos ou criados pelo sistema, a forma de tratamento que recebem e como são utilizados.

Bibliografia

ABÍLIO, L. Uberização: a era do trabalhador just-in-time. Estudos Avançados, vol. 34 nº 98. São Paulo, Jan/Abr 2020.

ADAMS-PRASSL, J. ABRAHA, H. KELLY-LYTH, A. SILBERMAN, M. RAKSHITA, S. ‘Regulating Algorithmic Management: A Blueprint’. 14 European Labour Law Journal (forthcoming), 2023.

DUBAL, V. On algorithmic wage discrimination.  Early Draft Paper, presented at the study group on artificial intelligence at the Bonavero Institute of Human Rights at Magdalen College, University of Oxford, 2023.

KATSABIAN, T. Privacy as the Basis of Workers’ Dignity in the “Information Workplace”. Early Draft, presented at the study group on artificial intelligence at the Bonavero Institute of Human Rights at Magdalen College, University of Oxford, 2023.

TEACHOUT, Z. Algorithmic Personalized Wages. POLITICS AND SOCIETY. Eletronic copy available at: https://ssrn.com/abstract=4393843. Forthcoming (2023).

Cássio da Silva Calvete é Professor associado do Departamento de Economia e Relações Internacionais da Universidade Federal do Rio Grande do Sul (UFRGS), doutor em Economia Social e do Trabalho pela UNICAMP e com pós-doutorado pela Universidade de Oxford.

One Response

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *