A Inteligência Artificial já atravessou as portas do Judiciário. Ela não pediu licença, não aguardou consenso e não admite retrocesso. A discussão, portanto, deixou de ser sobre sua chegada e passou a ser sobre os limites que precisam urgentemente ser impostos ao seu uso.
Eficiência é necessária. Justiça automática, não.
Vivemos a era dos dados, dos números e das estatísticas. Nesse cenário, a promessa de um Judiciário mais rápido soa sedutora. Sistemas baseados em Inteligência Artificial, muitos deles impulsionados por modelos desenvolvidos por empresas como a OpenAI, passaram a auxiliar na organização de processos, análise de precedentes e gestão de acervos.
O problema começa quando confundimos velocidade com Justiça. Processo não é planilha. Direitos não são probabilidades. E decisões judiciais não podem ser reduzidas a padrões estatísticos.
Em meus 19 anos de advocacia, aprendi isso na prática. Já vi processos aparentemente “simples” mudarem completamente de rumo após uma audiência bem conduzida; já acompanhei casos em que um detalhe humano um depoimento, uma contradição percebida no olhar, uma realidade social invisível nos autos foi determinante para uma decisão justa. Nenhum algoritmo é capaz de perceber o silêncio de uma parte, a angústia de um pai, o impacto real de uma sentença na vida de uma família. Justiça não acontece apenas nos autos; ela acontece diante das pessoas.
O discurso da eficiência domina o ambiente institucional. Julgar mais rápido virou sinônimo de julgar melhor. Nem sempre é. A pressa é incompatível com a reflexão que o Direito exige. Decidir envolve contexto, sensibilidade e responsabilidade elementos que nenhum sistema automatizado consegue reproduzir.
Conselho Nacional de Justiça defende o uso da Inteligência Artificial como ferramenta de apoio ao magistrado. A diretriz é correta. O risco está na prática silenciosa, quando sistemas passam a orientar decisões sem transparência suficiente e sem controle humano efetivo.
O maior perigo da automação no Judiciário não é o erro isolado, mas a padronização acrítica. Algoritmos aprendem com decisões passadas. Se o passado errou, o erro se repete agora com aparência de neutralidade técnica e legitimidade institucional.
A advocacia também enfrenta um ponto de inflexão. A tecnologia eliminou tarefas mecânicas e escancarou uma realidade incômoda: repetir modelos não é mais diferencial. A Inteligência Artificial faz isso melhor, mais rápido e sem questionar. O advogado que não pensa, não interpreta e não questiona tende a se tornar dispensável.
Para o cidadão, o risco é ainda maior. Quando decisões passam a seguir lógicas algorítmicas, histórias humanas se tornam exceções inconvenientes. O cidadão deixa de ser sujeito de direitos e passa a ser apenas mais um número processado pelo sistema.
Não existe algoritmo neutro. Toda tecnologia carrega escolhas humanas, vieses históricos e limitações estruturais. Ignorar isso é permitir que decisões sensíveis sejam tomadas por sistemas opacos, distantes do controle social e da responsabilidade institucional.
A tecnologia é avanço. A automatização irrestrita da Justiça, não.
A Inteligência Artificial é ferramenta; a consciência jurídica não pode ser terceirizada.
Diogo Fernandes
Advogado – Proprietário do escritório Diogo Fernandes Advocacia
Colunista em Justiça & Sociedade – MT Urgente


