16 de maio de 2026
TECNOLOGIA

IA no Judiciário: a fraude invisível que preocupa tribunais


| Tempo de leitura: 2 min

A inteligência artificial já começou a fazer parte da rotina do Poder Judiciário. Ferramentas de IA vêm sendo utilizadas para auxiliar na análise de documentos, organização de processos e elaboração de minutas. O objetivo é acelerar tarefas e tornar o sistema mais eficiente. Mas, junto com a tecnologia, surgem também fraudes cada vez mais sofisticadas.

O que está acontecendo?

Especialistas têm alertado para uma técnica conhecida como "prompt injection", que consiste na inserção de comandos ocultos dentro de documentos digitais para influenciar o comportamento de sistemas de inteligência artificial.

Na prática, funciona assim: uma petição pode conter instruções invisíveis ao leitor humano, mas identificáveis por ferramentas de IA. Essas instruções podem tentar induzir o sistema a tratar determinado caso como urgente, ignorar argumentos da parte contrária ou até gerar respostas favoráveis. O mais preocupante é que a manipulação não acontece de forma visível. O documento aparenta estar normal, enquanto instruções ocultas atuam nos bastidores.

O risco vai além da tecnologia

O problema vai além da tecnologia. A preocupação central é institucional. Se ferramentas de inteligência artificial forem manipuladas, mesmo que parcialmente, surgem questionamentos sobre imparcialidade, segurança jurídica e confiabilidade do próprio sistema.

Além disso, cresce o temor de nulidades processuais e discussões sobre decisões influenciadas por conteúdos contaminados digitalmente. A inteligência artificial pode auxiliar a Justiça, mas não pode substituir o senso crítico, a revisão humana e os mecanismos de controle.

O Judiciário já começou a reagir

O avanço da inteligência artificial no sistema de Justiça não acontece sem regras. O próprio Conselho Nacional de Justiça já estabeleceu diretrizes para o uso de IA no Judiciário, exigindo monitoramento, auditorias e supervisão humana em sistemas considerados de maior risco.

Na prática, isso significa que ferramentas de inteligência artificial não devem atuar sozinhas em decisões sensíveis. A tecnologia funciona como apoio, mas a responsabilidade continua sendo humana. Além disso, casos recentes envolvendo tentativas de manipulação já começaram a gerar consequências processuais e sanções, mostrando que o uso indevido dessas técnicas pode ser tratado como violação à integridade do próprio sistema judicial.

Tecnologia exige responsabilidade

A inteligência artificial deve servir como ferramenta de apoio, e não como atalho para manipulação.

O avanço tecnológico traz eficiência, mas também exige novos cuidados, novas regras e atenção constante. No ambiente digital, nem toda fraude é visível. E, muitas vezes, o maior risco está justamente naquilo que passa despercebido.