Agentes de IA e indústria 4.0

Detailed macro view of a circuit board showcasing microchips and electronic components.
Imagem: Lionel Feininger

Em tempos de IA, tem sido ainda mais fácil imaginar o fim do mundo do que o fim do próprio capitalismo – cujo modus operandi, este sim, ameaça tanto a(o)s trabalhora(e)s quanto a natureza.

Nahema Nascimento Falleiros

Fonte: Le Monde Diplomatique Brasil
Data original da publicação: 18/11/2025

Em sua definição mais canônica, um agente de inteligência artificial (IA) é todo programa de software capaz de perceber seu ambiente por meio de sensores e de agir sobre este mesmo por meio de atuadores. Atuadores são a conexão entre a concepção e a execução de uma ação. Interfaces de programação de aplicativos, por exemplo, são atuadores de software enquanto motores são atuadores de hardware.

Quando Stuart Russell e Peter Norvig publicaram, em 1995, seu influente manual de ciência da computação, ambos estabeleceram, a partir desta definição (um tanto quanto cibernética) a simulação da ação racional como a unidade fundamental de análise da IA. Neste manual, as máquinas de Turing, ou seja, os modernos computadores digitais, passam do jogo da imitação do pensamento ao jogo da imitação da ação. Assim, inteligência e ação aparecem interconectadas. Isto porque tal tecnologia compreende sistemas computacionais que podem ser “capazes de criar planos contextuais específicos em ambientes não determinísticos”, segundo Margaret Mitchell e seus colegas. Para tal, estes agentes devem funcionar em um ciclo que vai da percepção à ação e suas diferentes arquiteturas devem definir como tal ciclo será implementado, seja através do raciocínio simbólico, das regras reativas, do controle híbrido ou do aprendizado de máquina com redes neurais artificiais.

Graças ao acúmulo de vastas quantidades de dados via Internet-Web e da capacidade computacional alcançada pelas unidades de processamento gráfico (UPGs), hoje, a IA generativa tornou-se boa o suficiente para simular conversas gerando textos, imagens e áudios dos mais diversos. Seus modelos de linguagem natural de grande escala, porém, ainda não são suficientemente bons para executar tarefas com certo nível de autonomia em ambientes digitais. É aí que a IA agêntica deveria se encaixar no quebra-cabeça da automação total, como a peça “pro-ativa” (e não apenas “reativa”) que estava faltando para montá-lo, já que sua promessa é precisamente corrigir esta insuficiência.

Para as big techs, já não basta mais construir ferramentas de IA generativa. Em meio a suspeitas sobre a formação de mais uma bolha, estas empresas transnacionais precisam construir agora agentes de IA capazes não só de simular o que pensamos, mas de fazer o que pensamos. Além disso, como a construção de agentes que simulam o comportamento humano se tornou cada vez mais fácil, o que antes resultava em dois tipos distintos de agentes pode se tornar uma coisa só. O tipo que automatiza tarefas e o que simula comportamentos podem se confundir.

A fusão destes dois propósitos já preocupa muita gente que estuda os impactos sociais da IA. Como distinguir, por exemplo, um agente de IA de um humano quando acessamos um serviço de atendimento ao consumidor? Como identificar se um agente de IA está comprando passagens aéreas sob nossa autorização? E se alguém usar um agente hackeado em nome de outrem? Teremos direito à autenticidade ou ficaremos reféns da simulação? Enfim, poderíamos passar horas a fio listando os múltiplos problemas de privacidade e/ou segurança da informação que os agentes de IA já causamMais do que isso, poderíamos entrar em uma infindável discussão sobre os problemas éticos causados por tais agentes. Se é que podemos falar em ética quando estamos lidando com uma tecnologia anti-ética by design! Basta olhar as cadeias globais de produção da IA, marcada pela superexploração de um trabalho humano que vai das minas de lítio às plataformas de micro-tarefas como a Mechanical Turk. Contudo, gostaria de compartilhar aqui, uma preocupação de outra ordem.

Profecia e hipérbole na indústria da IA

Como observou Jon Guice, para financiar a pesquisa e o desenvolvimento (P&D) de produtos e criar ou ampliar mercados consumidores, grupos de interesses econômicos e políticos recorrem a duas formas particulares de argumentação: (1) a profecia autorrealizável e (2) a retórica da hipérbole (o hype, como se diz em inglês). Por isso, na indústria da IA, a crença no surgimento de uma tendência e seu exagero tornam-se dois requisitos fundamentais para o próprio surgimento dessa tendência. O terceiro requisito é a institucionalização desse tipo de retórica promocional tautológica.

Afinal, como lembra o filósofo John Austin, quando “dizer é fazer”, enunciados performativos impõem sua realidade pelo simples fato de serem proferidos por determinadas pessoas, e não por outras. São engenheiros e cientistas da computação, ou acionistas da OpenAI, que dizem isto ou aquilo – e não a Maria ou o José…

Nesse sentido, recorda Pierre Bourdieu, as classes dominantes, ou os grupos sociais que definem os rumos da economia e detêm o poder, são também aqueles capazes de impor uma definição (tida como universal) de tecnologia segundo a qual sua realização consiste em “ter, ser e fazer” aquilo que essas mesmas classes ou grupos têm, são e fazem.

É por meio da profecia auto-realizável e da retórica do exagero que CEOs de big techs, investidores de capital de risco e “startup-eiros” têm promovido, há décadas, seus projetos compartilhados de futuro no Vale do Silício. E, assim, o fazem inclusive com auxílio dos meios de comunicação que divulgam suas inovações, muitas vezes, sem explicitar o contraditório. Quem acompanha a história da inteligência artificial e seus “invernos” que chegaram, é bom lembrar, quando suas “bolhas” estouraram, sabe que a P&D nesta indústria vêm sempre com uma enxurrada de declarações exageradas (sejam elas otimistas ou pessimistas) e de uma leva de estudos prospectivos que reforçam as já manjadas teses sobre o fim do trabalho vivo, ou seja, do trabalho concebido e/ou executado por humanos. Muitas vezes, estas declarações convertem-se inclusive em versões atualizadas da escatologia. Aliás, em tempos de IA, tem sido ainda mais fácil imaginar o fim do mundo do que o fim do próprio capitalismo – cujo modus operandi, este sim, ameaça tanto a(o)s trabalhora(e)s quanto a natureza.

Ora, com o lançamento mais recente dos agentes de IA no mercado global, isto não seria diferente. Mais uma vez, a profecia auto-realizável e a retórica da hipérbole se repetem. Não por acaso, no início de 2025, Sam Altman, CEO da Open AI, escreveu algumas “reflexões” em seu blog sobre estes sistemas de software, afirmando o quão próximo seus engenheiros e cientistas da computação estariam de alcançar, com os agentes de IA, a dita inteligência geral artificial (IGA) – considerada, pelos gurus da singularidade, o “Santo Graal” da área.

Só para contrariar

Altman parece estar tão confiante na construção da IGA que, ao lado de outros barões das big techs, decidiu construir seu próprio bunker na Nova Zelândia para se proteger não só de grandes guerras e eventos climáticos extremos, como também (pasmem!) da própria IGA. Contudo, os resultados de um benchmark, publicado pela Scale AI e pelo Center for AI Safety (CAIS) no final de outubro, contradizem esta mais nova profecia.

O RLI, acrônimo em inglês para Remote Labor Index, foi projetado para comparar e avaliar o desempenho de seis agentes de IA na conclusão de 240 projetos que simulam o trabalho digital de freelance (do começo ao fim). Entre os seis agentes de IA testados estavam:

1) O ChatGPT agent e 2) O GPT-5, ambos da Open AI;

3) O Gemini 2.5 Pro (Google);

4) O Sonnet 4.5 (Anthropic);

5) O Grok 4 (xAI);

6) O Manus (Butterfly Effect Technology).

No total, 23 categorias de trabalho remoto foram classificadas com base na taxonomia de empregos da Upwork, conhecida plataforma de freelance. O LRI incluiu tarefas complexas para além daquelas já contempladas em benchmarks anteriores (como programação e escrita), refletindo a realidade deste mercado de trabalho digital. Dentre estas, as sete categorias de trabalho mais representadas no teste foram as seguintes:

1) Vídeo e Animação (13% dos projetos);

2) Modelagem em 3D e Desenho Assistido por Computador (CAD) (12%),

3) Design Gráfico e Editorial (11%);

4) Desenvolvimento de Jogos (10%);

5) Produção de Áudio e Música (10%);

6) Arquitetura (7%);

7) Design de Produto (6%).

Em um freela de Modelagem em 3D, por exemplo, trabalhadora(e)s tiveram que criar cinco animações 3D curtas e de alta qualidade para demonstrar recursos de um design de fones de ouvido e seu estojo, destacando as pontas de silicone e a bateria substituível. O LRI testou se os agentes de IA executavam tarefas complexas tais como estas, que um humano leva em média 28,9 horas para concluir e cujo custo médio é de USD$ 632,60.

Em suma, os principais resultados do LRI mostraram uma baixa taxa na automação total destas formas de trabalho digital pelos agentes de IA. Para vocês terem uma noção, o Manos, agente com o melhor desempenho, alcançou uma taxa de apenas 2,5%. O Grok 4 e o Sonnet 4.5 alcançaram igualmente uma taxa de 2,1%. O GPT-5, por sua vez, chegou a 1,7% enquanto o Chat GPT agent apresentou 1,3%. Por fim, o Gemini 2.5 Pro não passou de 0,8%. Esta taxa de automação baixíssima foi definida pelo acúmulo de rejeições dos clientes que solicitaram tais tarefas, revelando as limitações dos agentes de IA. As falhas mais comuns foram as seguintes:

1) O trabalho não atendeu aos padrões profissionais (45,6%);

2) O trabalho ficou incompleto e os vídeos ficaram truncados (35,7%),

3) Os documentos foram corrompidos ou chegaram vazios e sua entrega se deu em formatos incorretos ou inutilizáveis (17,6%);

4) Os arquivos entregues estavam incoerentes (14,8%).

Estas falhas resultaram do fato de que a IA agêntica ainda não é capaz de verificar seu próprio trabalho automatizado e corrigir seus erros, especialmente em projetos que exigem verificação audiovisual complexa e interativa (como os de arquitetura ou desenvolvimento de jogos), mas há algo interessante: em alguns freelas, os trabalhos digitais automatizados pelos agentes de IA foram aceitos e considerados pelos clientes como tão bons ou melhores do que os executados pelos humanos.

Estes trabalhos digitais eram predominantemente criativos e estavam relacionados à produção de textos, imagens e áudios por meio de raspagem de dados via Internet-Web. O desempenho dos seis agentes de IA testados pelo LRI igualou-se ou excedeu o dos humanos em várias tarefas de edição, produção e mixagem de áudio como, por exemplo, criar efeitos sonoros personalizados para videogame, separar vocais em uma única faixa de áudio, mesclar narrações com músicas. Algo que ocorreu também em tarefas de geração de imagens como a criação de anúncios e logotipos. Além disso, a IA agêntica também apresentou um bom desempenho na redação de relatórios e na geração de códigos para visualização interativa de dados ou o chamado “vibe coding”.

Estes resultados não surpreendem quem já usa chatbots de IA generativa e/ou seus agentes. Estes resultados excepcionais coincidem inclusive com os de outro benchmark publicado no início de outubro pela própria Open AI. O GDPval, acrônimo em inglês para Gross Domestic Product (o PIB em português), foi projetado, porém, para comparar e avaliar o desempenho da IA generativa na automação de tarefas simples em diversas profissões. Muitos benchmarks de IA costumam mensurar seu desempenho concentrando-se apenas em habilidades específicas, como a programação e o uso básico da computação, enquanto alguns se concentram em tarefas simples como no caso do GDPval, citado anteriormente. Estes benchmarks apresentam resultados isolados e não capturam a diversidade ou a complexidade do mundo do trabalho digital (em particular) e do mundo do trabalho (em geral). Tais testes oferecem, portanto, uma visão limitada da automação.

Para concluir rapidamente, fico me perguntando como agentes de IA podem então ser implementados na indústria 4.0 se esta exige sobretudo uma orquestração perfeita entre múltiplas máquinas, sensores de internet das coisas (IoT), sistemas de controle e software. Me parece que já temos a resposta… O que me preocupa, no presente, é a eliminação já em curso do trabalho criativo pela IA generativa e agêntica. Afinal, que tipo de automação realmente queremos? Aquela que desqualifica ou (re)qualifica a força de trabalho? Esta preocupação esteve, como pudemos acompanhar, na pauta das greves de roteiristas, atrizes e atores de Hollywood encerrada no início do mês de novembro.

Referências

 

AUSTIN, John Langshaw. How to do things with words. London: Oxford University Press, 1962.

BOURDIEU, Pierre. La spécifité du champ scientifique et les conditions sociales du progrès de la raison. Sociologie et Societé, [s.l.], v. 7, n. 1, p. 91-118, mai 1975.

GUICE, Jon. Designing the future : the culture of new trends in science and technology. Research Policy, [s.l.], v. 28, n. 1, p. 81-98, jan. 1999.

MITCHELL, Margaret; GHOSH, Avijit; LUCCIONI, Alexandra Sasha; PISTILLI, Giada. Fully autonomous AI agents should not be developed. ArXiv, 2025.

RUSSELL, Stuart J.; NORVIG, Peter. Artificial intelligence: a modern approach. 4. ed. New Jersey: Pearson Education, 2023 [1995].

WOOLDRIDGE, Michael; JENNINGS, Nicholas R. Intelligent agents: theory and practice. The Knowledge Engineering Review, v. 10, n. 2, p. 115-152, 1995.

 

 

Nahema Nascimento Falleiros é doutora em Ciência da Informação pelo Instituto Brasileiro de Informação em Ciência e Tecnologia (IBICT) e pela Escola de Comunicação (ECO) da Universidade Federal do Rio de Janeiro (UFRJ). Ela se interessa pelas dimensões culturais, políticas e econômicas da ciência e da tecnologia no capitalismo contemporâneo. Sua pesquisa se concentra na plataformização do trabalho e nas desigualdades relacionadas à pesquisa e ao desenvolvimento e inovação (PDI) na indústria software, principalmente na indústria da inteligência artificial (IA). Atualmente, ela pesquisa governança da Internet e infraestruturas públicas digitais na América Latina e Caribe, usando métodos mistos e etnografia. Seus estudos abrangem áreas como a sociologia do trabalho, a economia política da informação e os estudos de ciência e tecnologia.


Leia também

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *