O Fiel da Balança: As Escolhas que Definem o Futuro

Ler Resumo
Os dois artigos anteriores desta série desenharam dois cenários opostos. No virtuoso, a IA funciona como alavanca: cria mercados novos, aumenta produtividade sem espremer pessoas, e transforma tempo economizado em qualidade e inovação. No vicioso, a IA funciona como tesoura: corta posições, destrói escadas de formação, amplifica erros em escala e corrói a confiança que sustenta o sistema jurídico. Os dois cenários usam a mesma tecnologia. O que muda é o desenho da adoção.
Mas se os dois caminhos são possíveis, o que determina qual deles prevalece? A resposta está em duas palavras: decisões humanas. Este último artigo mostra o que está nas mãos de empresas e indivíduos e por que a responsabilidade pela direção que a IA toma não pode ser terceirizada para a tecnologia.
A IA é um amplificador de escolhas. Essa ideia merece ser desdobrada, porque é o coração do argumento. Quando uma empresa adota IA, ela não está apenas instalando um software, está, sim, fazendo uma série de escolhas encadeadas. Escolhe quais tarefas automatizar. Escolhe se vai treinar pessoas para supervisionar ou se vai simplesmente cortar. Escolhe se o tempo economizado vira folga para qualidade ou vira meta mais apertada. Escolhe se a produtividade extra financia inovação ou apenas engorda margem no curto prazo. Cada uma dessas escolhas alimenta um ciclo: o virtuoso ou o vicioso. E a tecnologia, em si mesma, é indiferente. Ela apenas acelera o que já estava no desenho.
O mesmo vale para indivíduos. Quando você usa IA no trabalho, está escolhendo se ela será muleta ou alavanca. Muleta é quando você delega o pensamento e aceita o resultado sem crítica e, com o tempo, perde a capacidade de fazer sozinho. Alavanca é quando você usa a ferramenta para ir mais longe, mas mantém o domínio do raciocínio, a checagem, a responsabilidade pelo que entrega. A diferença parece sutil, mas é estrutural: no primeiro caso, sua competência atrofia; no segundo, ela se expande. E competência é o que sustenta empregabilidade, autonomia e, no fim das contas, dignidade profissional.
Comecemos pelo que costuma tirar o sono de muita gente: a IA vai destruir o bem-estar de quem trabalha? A evidência séria não sustenta uma resposta automática. Um estudo publicado na Scientific Reports com dados longitudinais da Alemanha, acompanhando trabalhadores entre 2000 e 2020, não encontrou evidência de impacto negativo significativo sobre bem-estar e saúde mental associado à exposição ocupacional à IA. Se algo aparece, é sinal de melhora em saúde e satisfação, algo que os autores associam à redução da intensidade física de certos trabalhos. Ao mesmo tempo, essa calma estatística não significa que todo mundo fica bem em qualquer cenário. Dependendo de como a IA entra na rotina, podem surgir preocupações econômicas, insegurança e queda na satisfação com vida e trabalho em alguns recortes. A IA pode ser complemento em um lugar e ameaça percebida em outro.
Um estudo de longo prazo da Georgia State University com participação da Georgia Tech analisou 16 anos de dados e concluiu algo que parece paradoxal à primeira vista: automação e IA podem se associar a estresse mais baixo, mas ao mesmo tempo a efeitos negativos na saúde e a impactos mistos na satisfação com o trabalho. O mais importante, porém, é a frase que deveria estar colada na parede de qualquer diretoria: esses impactos não são predeterminados, mas sim dependem do ambiente de trabalho, das escolhas de gestores e de políticas públicas, não de algum determinismo tecnológico inevitável.
Agora vem a parte que muda o jogo: produtividade e tempo. Porque bem-estar, no mundo real, costuma seguir o trilho do tempo, tempo de descanso, de aprendizado, de autonomia, de reduzir a correria, de fazer melhor e não apenas mais. A equipe do Federal Reserve Bank of St. Louis tentou quantificar isso: o que acontece quando a IA generativa entra no dia a dia. Eles estimam que usuários relataram economizar, em média, 5,4% das horas de trabalho na semana anterior. Num regime de 40 horas, isso dá algo como 2,2 horas por semana. No agregado, essa economia sugere algo como 1,1% de ganho potencial de produtividade para toda a força de trabalho, o que, em termos macroeconômicos, é enorme quando lembramos que produtividade costuma crescer devagar.
Só que o diagrama causal começa a aparecer quando perguntamos: para onde vai esse tempo economizado? E aqui está o ponto decisivo. Se o tempo economizado vira meta mais apertada, você ganha produtividade e perde bem-estar. Se vira espaço para pensar, aprender e criar, você ganha os dois. Se vira demissão pura, você ganha eficiência e destrói renda. Se vira reinvestimento em capacidade, você planta crescimento futuro. A mesma economia de tempo, quatro destinos completamente diferentes e quem escolhe o destino não é a tecnologia. São pessoas em posições de decisão.
Uma fotografia recente vem do quarto EY US AI Pulse Survey, divulgado em dezembro de 2025, com 500 tomadores de decisão em cargos de alta liderança. Quase todas as organizações que investem em IA relatam algum ganho de produtividade (96%), e apenas 17% dizem que esses ganhos levaram à redução de pessoal. O mais revelador não é só não cortar, mas onde colocam o dinheiro: muitas empresas estão direcionando ganhos para ampliar capacidades existentes de IA (47%), desenvolver novas capacidades (42%), fortalecer cibersegurança (41%), investir em pesquisa e desenvolvimento (39%) e fazer capacitação de funcionários (38%). Isso é praticamente um ciclo virtuoso em movimento: a empresa aprende, melhora, cria capacidade e se prepara para um futuro que ainda não está completamente desenhado.
E há um detalhe que explica por que algumas empresas aceleram mais: organizações investindo US$ 10 milhões ou mais em IA reportam ganhos significativos de produtividade com mais frequência (71%) do que as que investem menos (52%). A cadeia de causa e consequência fica clara: quando a liderança enxerga IA como catalisador de valor, a reação natural é reinvestir em capacidade e treinamento, o que aumenta a chance de o ganho virar crescimento e não apenas exigir mais do mesmo em menos tempo. Essa é uma escolha de gestão, não uma imposição tecnológica.
Mas se existe ciclo virtuoso, existe também ciclo vicioso. E ele geralmente começa com uma frase sedutora: “se a IA faz, eu não preciso treinar gente”. Só que treinamento é o que mantém a empregabilidade, a mobilidade social e a adaptação institucional. Quando você corta oportunidades de aprender, você reduz a capacidade das pessoas de migrar para tarefas de maior valor. A consequência é previsível: menos caminhos de carreira, mais desigualdade, mais frustração, mais desconfiança nas instituições.
Esse encadeamento não é teoria abstrata. Ele já aparece com nitidez em quem está entrando agora no mercado. Em janeiro de 2026, o Federal Reserve Bank of Dallas publicou uma análise mostrando que a correlação entre queda de emprego e exposição à IA aparece de forma mais clara para trabalhadores jovens. Trabalhadores de 22 a 25 anos nas ocupações mais expostas à IA tiveram uma queda de 13% no emprego desde 2022. E a parte mais importante: o padrão observado é explicado principalmente por uma queda na transição direta de fora da força de trabalho para o emprego, e não por uma onda de demissões. O problema pode estar menos em “a IA tirou meu emprego” e mais em “a IA está mudando a porta de entrada”.
Socialmente, isso é explosivo. A porta de entrada sempre foi o lugar onde a desigualdade se decide: quem consegue o primeiro degrau e quem fica do lado de fora. Quando a porta de entrada estreita, a reação em cadeia atinge todo o sistema. E aqui entra novamente o papel das escolhas. Empresas podem escolher usar IA para eliminar posições de entrada ou podem escolher redesenhar essas posições para que o aprendizado aconteça de forma diferente, supervisionando IA, checando resultados, desenvolvendo julgamento mais cedo. A segunda opção dá mais trabalho, mas preserva o pipeline de formação. A primeira opção economiza no curto prazo, mas cria um vácuo de competência no médio.
É por isso que a advocacia — como profissão e como função social — entra como peça central desse quebra-cabeça. O direito é, ao mesmo tempo, um setor altamente exposto (porque trabalha com texto, padrão, busca, revisão) e um setor que depende de confiança pública. A tecnologia pode aumentar acesso à justiça, reduzir custo de pesquisa e acelerar rotinas. Mas pode também amplificar erro, viés e irresponsabilidade, se for usada como autoridade em vez de ferramenta. Nessa fronteira, a frase “IA não é um advogado” deveria ser tratada como regra de ouro. Jake Heller, da Thomson Reuters, defende uma abordagem em que a IA funcione como um associado júnior: ajuda, rascunha, organiza, mas não substitui julgamento, empatia e nuance e, por isso, supervisão humana do resultado é crítica. Isso não é preciosismo; é causa e consequência direta. Se você delega julgamento a um modelo que não entende contexto moral, você ganha velocidade e perde responsabilidade.
A tecnologia não se sustenta sozinha; ela precisa de resposta institucional. E o ecossistema jurídico, talvez por ser naturalmente avesso ao risco, está tentando construir trilhos. A American Bar Association, por exemplo, já vinha desde 2019 chamando atenção para temas como viés, transparência, explicabilidade e, principalmente, controles e supervisão de IA. Em abril de 2024, a New York State Bar Association aprovou diretrizes recomendando que advogados protejam confidencialidade e não confiem apenas em informação gerada por IA em casos de clientes. Em outubro de 2025, o sistema de cortes de Nova York publicou uma política interna para juízes e servidores: restringe o uso a ferramentas aprovadas, exige treinamento e proíbe inserir informações confidenciais em IA generativa que não opere em modelo privado sob controle do tribunal. No plano internacional, a mensagem é semelhante: a sociedade está tentando empurrar a IA para o lado “humano no controle”.
Há ainda um nó econômico que explica por que, no mundo jurídico, a discussão fica mais tensa: o modelo de negócios. Se a IA reduz drasticamente o tempo de produção de peças, o modelo de hora faturável entra em atrito com a realidade. E aí surge a pergunta que liga economia à ética: se o cliente sabe que uma IA pode produzir um rascunho em minutos, por que ele aceitaria pagar como se aquilo tivesse levado dias? Bruce MacEwen resume a ameaça de forma direta: o modelo da hora faturável pode não ser economicamente viável se uma IA generativa produz uma petição longa em minutos. Aqui, novamente, escolhas.
O escritório pode tentar esconder o uso de IA e manter a cobrança antiga, o que é insustentável e potencialmente antiético. Pode cortar preços e espremer margens, o que pressiona salários e qualidade. Ou pode redesenhar o modelo de cobrança para premiar valor entregue, não tempo gasto, o que exige coragem institucional, mas alinha incentivos com a nova realidade.
Quando a remuneração premia horas faturáveis acima de qualquer outro objetivo, os sócios tendem a resistir a tecnologias que reduzam essas horas, mesmo que aumentem valor entregue. A consequência é um tipo de sabotagem racional: a firma tem ferramenta, tem plano estratégico, fala em precificação por valor… mas, na prática, o incentivo puxa de volta para o relógio. Isso é escolha de desenho organizacional. E escolhas de desenho organizacional podem ser mudadas por quem tem poder para mudá-las.
Tudo isso volta ao ponto de partida: IA amplifica escolhas. Se o sistema decide que o objetivo é reduzir gente, intensificar controle e cortar treinamento, você aciona o ciclo vicioso social: menos portas de entrada, mais desigualdade, menos bem-estar, mais desconfiança institucional. Se o sistema decide que o objetivo é aumentar capacidade humana, treinar, redesenhar trabalho e ajustar incentivos para valor, você aciona o ciclo virtuoso: produtividade sobe, qualidade sobe, lucro sobe, e parte desse ganho financia ainda mais capacidade, inclusive capacidade de cuidar de gente.
E o que decide para qual lado o pêndulo vai? Três coisas, quase sempre: governança, incentivos e hábitos. Governança é quem pode usar o quê, com quais dados, com qual transparência, com qual auditoria e com qual responsabilidade e o mundo jurídico está deixando claro que “humano no controle” é parte disso, não um detalhe. Incentivos é o que a organização recompensa: se ela paga por hora, vai defender a hora; se ela paga por valor e qualidade, vai defender eficiência com responsabilidade. E hábitos são o que cada pessoa faz na prática: revisar antes de confiar, usar a IA para pensar melhor e não para pensar menos, manter a própria competência viva, e estabelecer limites para que tempo economizado não vire tempo tomado.
Concretamente, o que está nas mãos de cada um? Para empresas: definir políticas de uso que exijam supervisão humana; investir em treinamento contínuo; redesenhar cargos de entrada para que o aprendizado aconteça de forma diferente, não desapareça; ajustar modelos de remuneração para premiar valor e qualidade; criar canais de feedback sobre impactos na saúde e satisfação dos funcionários. Para indivíduos: manter domínio do raciocínio mesmo quando a ferramenta facilita; checar antes de entregar; investir em competências que a IA não substitui: julgamento, comunicação, liderança, ética; estabelecer limites pessoais para que a produtividade não vire esgotamento; participar das conversas sobre como a tecnologia está sendo implementada no seu ambiente.
No fim, a narrativa correta não é “IA vai salvar” nem “IA vai destruir”. A narrativa correta é: a IA é um motor de retroalimentação. Ela acelera ciclos. Se você acerta o desenho, o ciclo vira virtuoso e você ganha produtividade com dignidade. Se você erra o desenho, o ciclo vira vicioso e você ganha eficiência com erosão: erosão de saúde, de confiança, de formação de jovens e de estabilidade institucional.
Os dados já mostram sinais dos dois lados: há ganho real de tempo e produtividade, há forte reinvestimento em muitas empresas, mas há também um aperto real nas portas de entrada para jovens e uma pressão crescente sobre modelos tradicionais como o da hora faturável. Os dois cenários estão acontecendo ao mesmo tempo, em lugares diferentes, dentro das mesmas indústrias. O que separa um do outro não é a tecnologia são as escolhas de quem a implementa.
Publicar isso, portanto, é quase um convite à responsabilidade adulta: não terceirizar para a tecnologia aquilo que é decisão humana. A IA pode ser a melhor ferramenta de bem-estar que já colocamos na mesa se ela liberar tempo para aprender, cuidar, criar e servir melhor. E pode ser a pior se ela virar máquina de cortar caminho, cortar gente e cortar futuro.
O diagrama de laços causais só descreve o que a vida já ensina: quando você alimenta o que é bom, o bem cresce; quando você normaliza o que desgasta, o desgaste vira cultura. A IA não escolhe. Quem escolhe é você.
