Saltar para o conteúdo

O futuro da IA e os milhares de milhões que gera dependem de uma força de trabalho mal paga: nos EUA, a instabilidade do setor tornou-se evidente após o despedimento de 5.000 pessoas.

Homem jovem verifica o telemóvel enquanto estuda com portátil e caderno na mesa, numa cozinha iluminada.

Far dos conselhos de administração, uma frágil espinha dorsal humana mantém esses modelos vivos.

À medida que o capital de risco continua a inundar a inteligência artificial, milhares de subcontratados mal pagos rotulam, organizam e avaliam dados em silêncio para que os chatbots soem fluentes e os motores de recomendação pareçam inteligentes. Os seus trabalhos mudam, encolhem ou desaparecem de um dia para o outro, mesmo quando as empresas de IA falam em remodelar a economia global.

O boom que esconde uma falha social crescente

A IA está agora no centro do otimismo económico dos EUA. Segundo números citados pela Futurism, as empresas ligadas à inteligência artificial representaram cerca de 92% do crescimento do PIB dos EUA no primeiro semestre de 2025. Trata-se de uma concentração impressionante de impulso económico num único setor.

Ao mesmo tempo, nomes conhecidos da tecnologia continuam a cortar pessoal. A Amazon eliminou aproximadamente 14.000 postos, apesar de resultados financeiros saudáveis. Observadores do setor assinalaram outubro como um dos piores meses para despedimentos na tecnologia desde 2003. A mensagem soa contraditória: valorizações recorde, folhas salariais a encolher.

Isto não é apenas uma normal “procura de eficiência”. Reflete uma reestruturação discreta de como o trabalho de IA é feito. Em vez de trabalhadores permanentes com benefícios, muitas empresas empurram o trabalho para uma camada de subcontratados dispersos pelos EUA e pelo mundo. Estes trabalhadores fazem as tarefas aborrecidas mas cruciais que os modelos ainda não conseguem resolver sozinhos: ler prompts, pontuar respostas de chatbots, assinalar conteúdo prejudicial, classificar imagens, avaliar resultados de pesquisa.

Sistemas de IA que parecem mágicos por fora ainda dependem de uma vasta força de trabalho humana, mal paga, que permanece em grande parte invisível para os utilizadores finais.

Estes trabalhadores de plataformas (crowdworkers) operam numa zona cinzenta. Raramente recebem seguro de saúde, licença paga ou proteção no emprego. Algoritmos e gestores de projeto decidem o seu destino através de contratos curtos, taxas horárias flutuantes e painéis de desempenho que muitas vezes parecem opacos. Quando os orçamentos apertam ou as prioridades corporativas mudam, esta força de trabalho absorve o choque primeiro.

Mercor e os 5.000 trabalhadores dispensados num dia

O caso recente da Mercor, uma empresa de contratação a trabalhar com a Meta e a OpenAI, mostra quão abrupto este sistema pode ser. A empresa estava a gerir um projeto conhecido como Musen, com mais de 5.000 trabalhadores a contribuir. Muitos dizem que lhes foi dito que o projeto duraria até ao final do ano. As pessoas planearam renda, cuidados infantis e pagamentos de dívidas com base nessas garantias.

Depois, chegaram as mensagens: o Musen tinha terminado. Sem grande antecedência, sem encerramento gradual. O acesso às tarefas desapareceu quase de um dia para o outro. Apenas uma fração dos afetados conseguiu chegar a um contacto humano. Para milhares de outros, a plataforma simplesmente ficou em silêncio.

Pouco depois, a Mercor terá lançado um novo projeto, chamado Nova. As tarefas pareciam surpreendentemente semelhantes: avaliar saídas do modelo, rever dados, verificar qualidade. Mas o pagamento à hora desceu cinco dólares. Vários trabalhadores descreveram uma sensação de “chicotada”. O trabalho não tinha mudado; o preço do seu tempo, sim.

Um projeto termina na sexta-feira; na segunda, aparecem tarefas quase idênticas sob um novo nome, a uma taxa horária mais baixa e sem garantia de duração.

Este padrão corresponde a uma mudança mais ampla no recrutamento para IA:

  • Contratos mais curtos, com datas de fim pouco claras
  • Pausas frequentes na disponibilidade de tarefas, deixando trabalhadores sem rendimento
  • Pressão descendente sobre as taxas horárias à medida que entram novas vagas de trabalhadores
  • Mais vigilância da velocidade e da “qualidade”, com pouco direito a recurso

Algumas plataformas seguiram outro caminho. Estão a reduzir grandes multidões de anotadores generalistas e a substituí-las por equipas mais pequenas de especialistas mais bem pagos, como revisores médicos ou analistas jurídicos. Isso pode aumentar a qualidade, mas ainda deixa milhares de trabalhadores menos qualificados a disputar o que sobra: moderação de conteúdo, deteção de spam, rotulagem de material ofensivo.

Longas horas, stress constante e pouca margem de manobra

Para as pessoas que fazem estes trabalhos, a realidade diária está longe de eventos reluzentes de lançamento de IA. Os horários estendem-se pela noite dentro, enquanto os trabalhadores perseguem tarefas suficientes para pagar as contas. Os fusos horários esbatem-se, à medida que empresas dos EUA dependem de turnos noturnos na América Latina, em África ou no Sudeste Asiático. Mesmo dentro dos Estados Unidos, subcontratados fazem malabarismos com múltiplas plataformas para juntar um sustento.

Quando os projetos abrandam, o buraco no rendimento aparece instantaneamente. Não há indemnização, nem período oficial de aviso. As filas de tarefas limitam-se a mostrar “sem trabalho disponível”. Essa incerteza molda um clima de resignação silenciosa. Muitos aceitam taxas reduzidas ou condições mais duras porque veem poucas alternativas que permitam trabalho remoto e flexível.

A pressão psicológica também aumenta. Alguns trabalhadores treinam sistemas de segurança revendo conteúdo violento, sexual ou de ódio. Outros leem conversas emocionalmente carregadas ou pedidos de utilizadores perturbadores. Muitas vezes lidam com este material em isolamento, a partir de um quarto ou de uma mesa de cozinha, com apoio psicológico mínimo.

O setor da IA fala de eficiência e automação; para muitos trabalhadores, a experiência vivida é a ansiedade pela próxima tarefa e pelo próximo pagamento da renda.

O que esta mudança no trabalho diz sobre o nosso futuro coletivo

Publicamente, os líderes de IA tendem a manter um tom otimista. Satya Nadella, da Microsoft, tem falado da inteligência artificial como uma forma de melhorar a qualidade de vida, desde que os humanos mantenham controlo significativo. Sam Altman, da OpenAI, descreve frequentemente um futuro de ganhos dramáticos de produtividade, combinado com novos tipos de trabalho que ainda não existem.

Essa visão pressupõe um contrato social estável. A realidade atual sugere algo mais frágil. As empresas de IA dependem fortemente de um conjunto crescente de pessoas que juntam trabalhos instáveis. Trabalham como a fundação escondida da aprendizagem automática, mas têm quase nenhum poder de negociação.

Em teoria, as ferramentas de IA deveriam reduzir o trabalho penoso e libertar os humanos de tarefas repetitivas. Na prática, muitos dos trabalhos mais monótonos e repetitivos foram empurrados para as margens do mercado de trabalho, onde a proteção é mais fraca. O risco é que a riqueza gerada pela IA fique concentrada no topo, enquanto a volatilidade se espalha pela base.

Vencedores, perdedores e uma lacuna crescente

O contraste entre quem beneficia e quem absorve os choques é evidente. A tabela abaixo esboça três níveis aproximados dentro da economia da IA.

Nível Funções típicas Condições
Topo Fundadores, executivos, investigadores seniores Participação no capital, salários elevados, forte mobilidade profissional
Meio Engenheiros, cientistas de dados, gestores de produto Remuneração competitiva, benefícios, algum risco de despedimento
Base Anotadores, avaliadores, moderadores, crowdworkers Baixa remuneração, sem rede de segurança, horários irregulares

Esta estrutura levanta questões difíceis para decisores políticos. Se a IA impulsiona a maior parte do crescimento do PIB, mas uma parte desse crescimento assenta em trabalho precário, quem suporta os custos sociais? Devem os reguladores definir padrões básicos para o trabalho de dados em IA, como remuneração mínima, aviso prévio para encerramento de projetos ou critérios de avaliação transparentes?

Caminhos a seguir: regulação, certificação e voz dos trabalhadores

Várias respostas possíveis começam a surgir no debate político. Nenhuma resolverá o problema por si só, mas, em conjunto, podem reduzir as formas mais prejudiciais de precariedade.

Definir um patamar mínimo para o trabalho em IA

Alguns especialistas em trabalho defendem regras adaptadas ao trabalho tecnológico baseado em plataformas. Em vez de deixar tudo a contratos privados, os governos poderiam exigir:

  • Taxas horárias mínimas que correspondam ao custo de vida local
  • Calendários escritos claros para projetos acima de uma determinada dimensão
  • Acesso a resolução de litígios quando os trabalhadores são desclassificados (de-rated) ou banidos
  • Apoio básico de saúde mental para quem revê conteúdo sensível

Medidas como estas não transformariam o trabalho por contrato em emprego padrão. Ainda deixariam às empresas flexibilidade para escalar projetos para cima e para baixo. Mas poderiam tornar histórias como o encerramento da Mercor menos brutais para os afetados.

Transparência como sinal competitivo

Os fornecedores de IA têm, cada vez mais, de provar que os seus modelos são seguros e obtidos de forma ética. Isso cria outra alavanca. Compradores de serviços de IA - de bancos a hospitais - podem começar a perguntar de onde vieram os dados de treino e em que condições foram produzidos. Selos independentes ou esquemas de certificação poderiam ajudar aqui.

Se as empresas começarem a tratar os padrões laborais como um risco reputacional, os contratantes e as grandes tecnológicas enfrentarão pressão para limpar as suas cadeias de fornecimento, não apenas o seu código.

Para lá das manchetes: o que os trabalhadores podem fazer hoje

Para quem já está dentro deste mundo de microtarefas de IA, a mudança não chegará de um dia para o outro. Algumas estratégias práticas ainda podem reduzir a vulnerabilidade. Os trabalhadores podem:

  • Distribuir o risco por várias plataformas em vez de depender de uma só
  • Registar pagamentos, tempos mortos e padrões de tarefas para perceber quais clientes são mais fiáveis
  • Entrar em comunidades online onde taxas e condições são partilhadas abertamente
  • Desenvolver competências adjacentes - como scripting básico, limpeza de dados ou desenho de prompts - que abram portas para funções mais bem pagas

Fóruns comunitários começaram a funcionar como sindicatos informais neste setor. Os trabalhadores trocam capturas de ecrã, comparam novos nomes de projetos com os antigos e avisam-se mutuamente quando um cliente corta subitamente as taxas. Esse tipo de inteligência coletiva raramente chega às chamadas de resultados das empresas, mas determina quem se mantém no jogo e quem desiste.

A indústria da IA costuma enquadrar o risco em termos de modelos descontrolados ou automação fora de controlo. O risco mais silencioso está mais perto do chão: um motor económico construído sobre pessoas que nunca sabem bem se ainda terão trabalho na próxima semana. Enquanto isso continuar a ser o padrão, o futuro da IA continuará a assentar em ombros humanos instáveis.

Comentários (0)

Ainda não há comentários. Seja o primeiro!

Deixar um comentário