Patentes da Uber revelam testes com algoritmos para identificar motoristas ‘perigosos’

Fotografia: Roberto Parizotti/CUT

Problemas de segurança perseguem a Uber desde seus primeiros dias como serviço de transporte por aplicativo. Acidentes de carro e agressões físicas continuaram, apesar das tentativas da Uber de monitorar seus carros e fiscalizar motoristas; relatos de violência sexual em seus veículos levaram a Uber a admitir que “não estava imune” ao problema.

Em meio a reações públicas e demandas para dar atenção à segurança dos passageiros, a Uber lançou a iniciativa “Segurança em primeiro lugar” em 2018, adicionando ao aplicativo recursos como chamada de emergência, reforçando a triagem dos motoristas e, pela primeira vez, divulgando um relatório de segurança que trouxe mais detalhes sobre mortes no trânsito, agressões físicas fatais e agressões sexuais em sua plataforma.

Isso foi antes da pandemia. Ao longo do último ano e meio, a segurança adquiriu um novo sentido; se antes costumava significar que os motoristas precisavam fazer os passageiros se sentirem seguros, agora significa que, além de protegê-los do vírus, os motoristas precisam tomar providências para se manterem saudáveis.

E a Uber novamente convenceu os passageiros a não abandonar sua plataforma por medo – exigindo que os motoristas apresentassem uma selfie para verificar se estavam usando máscara, disponibilizando produtos de limpeza e pedindo aos passageiros que completassem uma verificação de segurança antes de entrar nos veículos.

Embora as mudanças da Uber possam atenuar as preocupações de alguns passageiros, elas não oferecem o mesmo nível de automação e escala que uma solução algorítmica seria capaz de oferecer. Esta é uma possibilidade sugerida por uma série de patentes da Uber, registradas desde 2019, que definem sistemas de pontuação algorítmica e de previsão de risco para ajudar a decidir se uma pessoa é “segura” o suficiente para dirigir pela Uber.

Analisadas em conjunto, as patentes revelam um padrão de previsão algorítmica e vigilância de motoristas em nome da segurança dos passageiros. Com características semelhantes a outros algoritmos bastante criticados – códigos que ajudam a precificar seguros e tomar decisões a respeito de fianças, sentenças e liberdades condicionais – os sistemas descritos nas patentes tomariam decisões que trariam grandes consequências, usando processos digitais que são muito difíceis ou impossíveis de compreender. Embora soe interessante a iniciativa da Uber para tornar a segurança algo passível de programação, especialistas demonstram preocupação de que os sistemas possam entrar em conflito com essas supostas boas intenções da empresa.

Um porta-voz da Uber escreveu em uma declaração enviada por e-mail que, embora a empresa esteja “sempre explorando maneiras pelas quais nossa tecnologia possa ajudar a melhorar a experiência da Uber”, atualmente não possui produtos relacionados à pontuação de segurança nem patentes de avaliação de risco.

À medida que a batalha pela classificação legal do vínculo dos motoristas continua, depois que Uber e Lyft usaram seus fundos para financiar uma vitória eleitoral que permitiu manter os motoristas como trabalhadores terceirizados na Califórnia, existe a grave preocupação de que sistemas como esses possam se tornar mais um meio de barrar motoristas sem o devido processo legal, especialmente porque a pandemia revelou a vulnerabilidade dos “gig-workers” – trabalhadores autônomos sem vínculo e sem a mesma segurança jurídica dos funcionários formais.

Close-up de uma câmera do painel instalada na janela interna de um veículo da Uber em San Ramon, Califórnia, em 27 de setembro de 2018. Fotografia: Smith Collection/Gado/Getty Images

Vigiados a todo momento

Uma patente para pontuação do risco de segurança do motorista depende da avaliação do passageiro e daquilo que é apreendido pela inteligência artificial – e esta combinação sugere que o “sotaque carregado” do motorista corresponderia a um serviço de “baixa qualidade”.

Outra patente busca prever incidentes de segurança usando modelos de aprendizado de computador que determinam a probabilidade de um motorista praticar direção perigosa ou se envolver em conflito interpessoal, utilizando fatores como testes psicométricos para determinar sua “confiabilidade”, monitorando suas redes sociais e usando “fontes oficiais”, como relatórios policiais, para evitar o viés das avaliações dos passageiros.

Jeremy Gillula, engenheiro de privacidade no Google e ex-diretor de projetos de tecnologia da Electronic Frontier Foundation, diz que usar algoritmos para prever o comportamento de uma pessoa com o objetivo de “decidir se ela será um perigo ou um problema” é algo bastante preocupante.

“Alguns brilhantes engenheiros perceberam que podemos fazer os computadores aprenderem com base no texto das pessoas, sem definir o que realmente queremos e o que isso de fato representa para um aplicativo na vida real”, disse ele. “O problema é um motorista perder o seu sustento, e não que alguém veja o anúncio errado.”

Monitorar motoristas sob o pretexto de segurança é um tópico comum nas patentes da Uber. Muitas dessas tecnologias avaliam o desempenho dos motoristas usando informações de seus telefones, incluindo uma que avalia sua capacidade de dirigir e sugere rastrear os movimentos de seus olhos e cabeça com câmeras de telefone, e outra que detecta seu estado comportamental (irritado, embriagado ou sonolento) atribuindo uma “pontuação de anormalidade”.

Outras patentes buscam monitorar o comportamento dos motoristas usando câmeras no veículo e seu “nível de distração” aproximado a partir de um registro das principais atividades no smartphone: atender uma ligação, olhar um mapa ou até mesmo mover o telefone pode indicar distração.

Jamie Williams, uma ex-advogada da equipe da Eletronic Frontier Foundation focada em liberdades civis e que agora trabalha como consultora de produtos, disse que os motoristas devem estar cientes de que estão “sendo observados o tempo todo”.

As patentes também têm como referência tecnologias recentemente implementadas pela Amazon em suas vans de entrega. A empresa anunciou planos em fevereiro para instalar câmeras de vídeo que usam inteligência artificial para rastrear os movimentos das mãos dos motoristas, características de direção e expressões faciais. Os dados coletados pelas câmeras determinam uma “pontuação de segurança” e podem levar ao desligamento do motorista. À Reuters, motoristas disseram que “as câmeras são apenas outra forma de nos controlar.”

A promessa de segurança

O algoritmo descrito em uma patente de pontuação de risco de segurança de 2019 mostra como esses sistemas podem ser perigosos na vida real, dizem os especialistas, observando que eles podem reproduzir os preconceitos dos passageiros.

O sistema descrito na patente usa uma combinação de avaliação do passageiro e metadados de telefone para atribuir aos motoristas uma pontuação de segurança com base no cuidado com que dirigem (“operação do veículo”) e como eles interagem com os passageiros (“comportamento interpessoal”). A pontuação de segurança de um motorista seria calculada assim que o passageiro enviasse um relatório de segurança à Uber.

De acordo com a patente, após seu envio, o relatório seria processado por algoritmos junto com quaisquer metadados associados, incluindo o perfil do motorista na Uber, duração da viagem, distância percorrida, localização do GPS e velocidade do carro. Com essas informações, o relatório seria classificado em tópicos como “altercação física” ou “direção agressiva”.

A pontuação geral de segurança de um motorista seria calculada usando pontuações ponderadas de avaliação de risco nas categorias de comportamento interpessoal e operação do veículo. Essa pontuação geral determinaria se um motorista tem um risco de segurança baixo, médio ou alto e, por consequência, se deve enfrentar uma ação disciplinar. Os motoristas com alto risco de segurança podem receber um aviso no aplicativo, uma suspensão temporária da conta ou uma “intervenção” não especificada em tempo real.

Adicionando mais uma camada de automação, a patente também descreve um sistema que ajusta automaticamente as pontuações de segurança do motorista com base em metadados específicos. Um motorista que completou um certo número de viagens seria marcado como mais seguro, enquanto aquele que gerou mais incidentes de segurança seria marcado como menos seguro. De acordo com a patente, um motorista que trabalha à noite é considerado menos seguro do que um motorista que trabalha durante o dia.

Embora o design do algoritmo tenha alguma lógica – afinal, um motorista mais experiente e com melhor visibilidade na estrada talvez seja de fato mais seguro – especialistas dizem que qualquer tomada de decisão automatizada requer que os desenvolvedores façam escolhas importantes para evitar que um viés seja introjetado em todo o sistema.

Gillula acredita que as regras automatizadas da Uber podem tomar decisões com base em suposições humanas equivocadas. “A corrida pode estar relacionada à hora do dia em que você está operando como piloto da Uber. Se é um segundo emprego, porque você tem que trabalhar durante o dia, é ridículo penalizá-lo por isso”, diz. “Este é exatamente o tipo de coisa que me preocupa.”

Se a Uber quiser tornar sua pontuação algorítmica justa, será preciso transparência sobre como os motoristas estão sendo avaliados, e fornecer a eles um canal de contato adequado, explica Williams. “Algoritmos de aprendizado de computador podem estar errados; os usuários podem estar errados”, diz ela. “É muito importante ter processos claros, transparência e consciência sobre o que está acontecendo na pontuação.”

Questões de precisão e justiça

Algoritmos de avaliação de risco são usados há muito tempo por seguradoras para definir prêmios de segurados com base em indicadores como idade, ocupação, localização geográfica e hobbies. Os algoritmos também são utilizados no sistema de justiça criminal, onde são aplicados em quase todas as fases do processo legal para ajudar os juízes e oficiais a tomarem decisões.

Algoritmos como o COMPAS, usado em estados dos EUA como Flórida e Wisconsin, determinam o risco de reincidência criminal de um indivíduo em uma escala de 1 a 10, com certos números correspondendo a baixo, médio e alto risco – a mesma fórmula seguida pela patente da Uber.

Embora a Uber busque prever o risco de “segurança” em suas patentes, trata-se das mesmas questões fundamentais de justiça e precisão enfrentadas nos algoritmos de justiça criminal (o viés inerente a esses algoritmos foi apontado mais de uma vez). Se a concepção de um algoritmo é falha desde o início, seus resultados e previsões também serão. No contexto da justiça criminal, prender alguém novamente é um indicador problemático para a reincidência, porque as prisões estão diretamente ligadas a fatores como o lugar onde você mora, se você interage com a polícia e como é sua fisionomia, explica Gillula.

O sistema de classificação atual da Uber, que permite que passageiros e motoristas avaliem uns aos outros em uma escala de cinco estrelas, é semelhante à categoria de comportamento interpessoal descrita na patente de pontuação de risco de segurança da Uber: ambos dependem de julgamentos subjetivos que são a base para distribuir punições. Em seu sistema atual, a Uber “desativa” ou demite motoristas cujas classificações caem abaixo de um certo limite. Tal política há muito tempo enfurece os motoristas, que afirmam não ter como contestar classificações injustas: eles são direcionados para um sistema de apoio que prioriza os passageiros e raramente fornece uma solução satisfatória.

Bhairavi Desai, diretora executiva da Aliança dos Trabalhadores de Táxi de Nova York, diz que os motoristas não estão protegidos do racismo, preconceito ou intolerância dos passageiros. “Nós conversamos com motoristas que acham que receberam uma classificação menor por serem muçulmanos”, diz ela. “Eu conheço motoristas afro-americanos que pararam de trabalhar para eles (Uber) porque sentiam que teriam uma classificação inferior.”

O ex-motorista Thomas Liu processou a Uber em outubro passado, propondo uma ação coletiva em nome de motoristas não brancos que foram demitidos com base em classificações racialmente “tendenciosas”. Williams disse que a pontuação de segurança estaria sujeita às mesmas preocupações: “As pessoas podem fazer uma chamada de segurança só porque não gostam de um motorista. Pode ser racialmente preconceituoso e usado de forma indevida.”

Varinder Kumar, um ex-motorista de táxi na cidade de Nova York, foi permanentemente desligado pela Uber em 2019. Ele dirigiu pelo aplicativo todos os dias por quase cinco anos, e o desligamento significou a perda repentina de US$ 400 a US$ 500 por semana.

“Fui ao escritório cinco vezes, enviei um e-mail e eles disseram que era porque um cliente reclamou”, disse Kumar. “Sempre que você vai lá e pergunta o que aconteceu, eles sempre dizem que é uma questão de segurança. Eu dirijo em Nova York desde 1991 e não tive nenhum acidente, nenhuma multa, então não sei que tipo de segurança eles procuram.”

O tipo de segurança descrito na patente de pontuação de risco de segurança da Uber também não está claro para Kumar. Ele disse que o relatório de comportamento interpessoal causaria os mesmos problemas que o sistema de classificação da Uber: “Os clientes registram uma reclamação mesmo que não estejam 100% certos”. Enquanto isso, a categoria referente a “operação do veículo” pode penalizar de forma injusta os motoristas da cidade de Nova York, que precisam dirigir de forma mais agressiva.

Joshua Welter, um líder da organização sindical Teamsters 117, diz que a disciplina algorítmica continua sendo uma questão importante para os motoristas. “Não é de se admirar que os motoristas de Uber e Lyft em todo o país estejam se levantando e tomando medidas para maior justiça e para ter mais voz no trabalho, como na busca pelo devido processo para apelar dos desligamentos”, disse Welter. “É uma questão de respeito básico e de ser tratado como um ser humano, não como um experimento de dados.”

Uma confiança artificial

A base para os experimentos de segurança da Uber são os dados do usuário, e Daniel Kahn Gillmor, um tecnólogo sênior da equipe do Projeto de Fala, Privacidade e Tecnologia da União Americana pela Liberdade Civil, diz que a Uber está “sentada em uma pilha cada vez maior de informações sobre pessoas que já utilizaram sua plataforma”.

“É uma empresa que faz experiências em massa e mostra pouca consideração pela privacidade de dados”, acrescentou.

Além de um vasto acervo de dados reunidos por mais de 10 bilhões de viagens, a Uber coleta dados telemáticos de motoristas, como velocidade, frenagem e aceleração do carro, usando dados de GPS de seus dispositivos. Em 2016, ela lançou um dispositivo de segurança chamado Uber Beacon, uma esfera que muda de cor montada no pára-brisa do carro. O dispositivo foi anunciado como um medida para auxiliar na identificação pelo usuário, sem mencionar o fato de que continha sensores para coleta de dados telemáticos. Em uma postagem do blog de 2018, agora excluída, os engenheiros da Uber elogiaram o benefício do Beacon como sendo um dispositivo gerenciado exclusivamente pela Uber para testar algoritmos, dizendo que ele coletava dados melhores do que os dispositivos dos motoristas.

Brian Green, diretor de ética em tecnologia do Centro Markkula de Ética Aplicada da Universidade de Santa Clara, questionou os motivos por trás da coleta de dados pela Uber. “Se o objetivo do sistema de vigilância [da Uber] é promover a confiança – se uma empresa quer ser confiável – eles têm que permitir que o público tenha acesso aos dados”, disse ele. “Muitas empresas de tecnologia não são transparentes. Elas não querem estar sob os holofotes.”

Welter disse que quando empresas como a Uber testam a disciplina do trabalhador com base em algoritmos sigilosos, “tanto os trabalhadores quanto os consumidores devem ficar profundamente preocupados sobre o alcance dos dados em nossas vidas diárias ter ido longe demais.”

Além de trazer informações sobre a visão de segurança da Uber, as patentes demonstram o escopo de suas ambições em relação ao uso de aprendizado pela máquina.

A Uber considera a inteligência artificial essencial para seus negócios e fez investimentos significativos neste campo nos últimos anos. Sua plataforma interna de machine learning interna ajuda as equipes de engenharia a aplicar inteligência artificial para otimizar rotas de viagem, combinar motoristas e passageiros, produzir informação sobre os motoristas e criar mais recursos de segurança. A Uber já usa algoritmos para processar mais de 90% das avaliações dos passageiros (a empresa disse que recebe uma quantidade enorme de retornos padrão, a maioria dos quais não está relacionada à segurança).

A pontuação de segurança algorítmica e a avaliação de risco também se enquadram na iniciativa da Uber relativas à segurança dos passageiros e aos esforços para garantir entregas seguras à sua crescente plataforma de entrega. Especialistas dizem que os sistemas não estão tão distantes assim da realidade (diferente de muitas outras patentes registradas por empresas de tecnologia). Em um comunicado, a Uber afirmou que “os pedidos de patentes são feitos para diversas ideias, mas nem todas se tornam produtos ou recursos”.

Mas algumas dessas “ideias” da Uber têm semelhanças com recursos implementados pela empresa: uma patente registrada em 2015 para detecção de “anomalia de viagem” tem semelhanças com o recurso chamado RideCheck; uma tecnologia para anonimato dos locais de início e fim das viagens é semelhante a um pedido de patente apresentado no ano passado; e um pedido apresentado em 2015 para verificar a identidade dos motoristas com selfies é semelhante ao recurso de selfie de segurança da Uber.

Green diz que as patentes da Uber refletem uma tendência mais ampla em que a tecnologia é usada como uma solução rápida para problemas sociais mais profundos. “Lidamos com muitas pessoas que não conhecemos, o que faz a tecnologia e o monitoramento intervirem para construir uma relação de confiança artificial”, explica.

Essa confiança só foi capaz de se estender até certo ponto durante a pandemia, que trouxe à tona as incertezas econômicas enfrentadas pelos motoristas e os limites da promessa de segurança com ajuda da tecnologia. Implementar esses sistemas agora significa que há muito mais em jogo.

Fonte: The Intercept Brasil
Texto: Belle Lin
Tradução: Antenor Savoldi Jr.
Data original da publicação: 12/11/2021

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *