Imagine dedicar a sua experiência para tornar os chatbots inteligentes, apenas para enfrentar prazos exaustivos, conteúdo chocante e uma remuneração que não corresponde ao stress. Essa é a rotina diária de milhares de avaliadores de IA que alimentam o Gemini e as Visões Gerais de IA do Google. Esses trabalhadores contratados, muitas vezes escondidos nas sombras, ajustam os resultados da IA para mantê-los seguros e precisos, mas a que custo pessoal? Com a IA do Google avançando rapidamente, vamos descobrir a verdadeira história do trabalho humano que a sustenta e por que isso está a suscitar questões difíceis.
- De criadores de conteúdo a moderadores de IA: uma mudança chocante
- O mundo dos avaliadores: a especialização encontra a exaustão
- Prazos apertados e dilemas éticos: a pressão aumenta
- Uma pirâmide de trabalho: invisível e dispensável
- Desmascare a ilusão da IA: exija melhores condições para os trabalhadores
De criadores de conteúdo a moderadores de IA: uma mudança chocante
Rachael Sawyer pensava que seu novo trabalho como “analista de redação” seria simples — talvez redigir artigos ou notas. Em vez disso, a partir de março de 2024, ela mergulhou na avaliação dos resultados do Gemini do Google: resumindo reuniões, bate-papos e até mesmo curtas-metragens gerados por IA. Mas o verdadeiro choque? De repente, lidar com conteúdo violento ou explícito sem aviso prévio ou consentimento, sinalizando-o para remoção.
«Fiquei chocada», partilha Sawyer, descrevendo a ansiedade crescente de ter de realizar dezenas de tarefas em 10 minutos cada, sem qualquer apoio à saúde mental. Ela é uma das milhares de pessoas contratadas pela Hitachi’s GlobalLogic, juntamente com empresas como a Accenture. Esses avaliadores estão na camada intermediária da cadeia de abastecimento de IA — com salários melhores do que os rotuladores de dados em Nairobi, mas muito abaixo dos engenheiros do Google. Sente o peso do trabalho invisível? Reflita sobre como as suas conversas de IA podem depender de ajustes semelhantes nos bastidores.
O mundo dos avaliadores: a especialização encontra a exaustão
O boom da IA do Google — do Gemini 1.0 ao tão elogiado 2.5 Pro — depende desses trabalhadores para verificar fatos, corrigir alucinações e evitar danos em áreas como medicina ou astrofísica. A equipa da GlobalLogic explodiu de 25 superavaliadores em 2023 para quase 2.000, principalmente professores, escritores e doutores baseados nos EUA que ganham US$ 16 a US$ 21 por hora.
Mas a desilusão começa a surgir. Um avaliador adorou desenvolver as respostas «humanas» do Gemini no início, mas os prazos reduzidos de 30 para 15 minutos por tarefa de 500 palavras tornaram a qualidade impossível. Outra, em cinco projetos, incluindo Visões Gerais de IA, recebeu diretrizes vagas que mudavam rapidamente, deixando-a insegura sobre o panorama geral. «Não tínhamos ideia de para onde isso estava a ir», diz ela. Grupos de especialistas lidam com consultas específicas, mas muitos enfrentam solicitações além de sua especialização — como detalhes sobre quimioterapia que assombravam Rebecca Jackson-Artis, que imaginava usuários desesperados confiando em suas edições apressadas. Já pensou na lacuna de conhecimento nas respostas da sua IA? Considere como o conhecimento especializado molda o que você vê.
Prazos apertados e dilemas éticos: a pressão aumenta
O ritmo é implacável. Os trabalhadores descrevem silos, mudanças rápidas nas diretrizes e reuniões de consenso onde vozes mais ousadas influenciam as avaliações — potencialmente distorcendo a precisão, como observa o sociólogo Antonio Casilli. A popularidade às vezes supera a objetividade, com avaliadores dominadores influenciando os resultados.
Então veio o lançamento conturbado do AI Overviews em maio de 2024 — cola na pizza? Comer pedras? Os avaliadores não ficaram chocados; eles já haviam sinalizado resultados absurdos internamente. Após a reação negativa, a qualidade aumentou brevemente, mas logo os supervisores pressionaram para que «apenas os números fossem atingidos», segundo Jackson-Artis. As proteções também foram afrouxadas: discurso de ódio ou material explícito agora são aceitáveis se solicitados pelo utilizador, e não gerados pela IA, de acordo com um documento de abril de 2024. Sawyer lembra que insultos raciais antes proibidos agora podem ser repetidos se ecoados pelos utilizadores. A política do Google permite exceções para «benefícios substanciais», como educação, mas os avaliadores não têm esse contexto. Adio Dinika afirma: «A velocidade supera a ética.» O custo emocional? Ataques de pânico, perda de confiança — muitos agora bloqueiam os resumos da IA. Encontrou uma falha na sua próxima resposta da IA? Ela pode ser atribuída a essas verificações humanas apressadas.
Uma pirâmide de trabalho: invisível e dispensável
Esses avaliadores não estão apenas a corrigir resultados; eles são a espinha dorsal contra as armadilhas da IA. No entanto, eles são «invisíveis, essenciais e dispensáveis», como diz Dinika. As demissões desde 2025 reduziram a equipa para 1.500 pessoas, apesar do boom da IA. Os trabalhadores sentem-se subvalorizados — profissionais altamente qualificados a construir um produto que «o mundo não precisa», lamenta um avaliador anónimo.
O Google insiste que os avaliadores fornecem «feedback externo» sem ajustar diretamente os modelos, mas qual é a realidade? As suas percepções agregadas refinam a magia. A falta de segurança no emprego, os processos opacos e os custos pessoais deixam muitos cautelosos. A frustração? A IA é vendida como «magia tecnológica» com brilho, mas construída sobre costas sobrecarregadas. Pense no lado humano da próxima vez que consultar o Gemini — parece um pouco menos brilhante?
Desmascare a ilusão da IA: exija melhores condições para os trabalhadores
O brilho da IA do Google esconde um esforço humano tão vital quanto exaustivo. Da angústia de Sawyer aos dilemas éticos dos especialistas, esses avaliadores tornam os chatbots inteligentes — mas os baixos salários, o esgotamento e as regras cada vez mais flexíveis são alarmantes. É hora de valorizar o trabalho por trás das cortinas. Aprofunde-se na ética da IA ou apoie iniciativas de trabalho justo hoje mesmo; afinal, uma tecnologia mais inteligente começa com o tratamento justo de seus criadores.