Pareto, IA e Judiciário: quem decide quando o padrão basta — e quando não basta mais
Como a Inteligência Artificial reorganiza o trabalho do juiz — e por que o julgamento humano continua decisivo na escolha entre aplicar o padrão ou justificar a exceção
No último artigo, recebi uma provocação instigante: talvez estejamos caminhando para um Judiciário que funcione, em grande medida, como máquina falando com máquina.
Ou seja: petições cada vez mais elaboradas, lidas, filtradas, classificadas e priorizadas por sistemas de IA antes mesmo de chegarem ao juiz humano. Tudo com foco em produtividade, padronização e gestão de volume.
A provocação é boa.
Mas ela nos leva a uma pergunta ainda mais interessante.
A questão central não é quem lê primeiro — humano ou IA —,
mas quem decide quando o padrão basta
e quando ele não basta mais.
No final das contas, talvez não tenha mudado tanto assim.
Juízes sempre decidiram dezenas de casos todos os dias. A grande maioria envolve os mesmos temas, as mesmas teses jurídicas, os mesmos conflitos recorrentes. O sistema sempre precisou de produtividade para funcionar.
Quando comecei a advogar, o desafio central era claro: chamar a atenção do juiz para o fato de que o meu caso não era apenas mais um. Convencê-lo a dizer, ainda que implicitamente: “este caso é diferente”.
Isso nunca foi simples.
E sempre foi exatamente aí que o Direito avançou.
Mas há um ponto igualmente importante — e muitas vezes esquecido.
Nem sempre o bom advogado quer empurrar o caso para a exceção.
Em muitos casos, o melhor resultado é justamente o oposto: que o juiz decida ordinariamente, aplicando o entendimento já consolidado.
Advogar bem sempre foi — e continua sendo — saber qual dessas estratégias faz sentido em cada caso.
Em um Judiciário cada vez mais assistido por IA, essa lógica tende a ficar mais explícita. Modelos serão excelentes em lidar com o padrão: casos repetitivos, teses consolidadas, decisões ordinárias.
Isso não diminui o papel do juiz.
Reorganiza o seu foco.
Libera tempo e energia para os casos que realmente exigem maior reflexão.
Recentemente li uma sentença que ilustra bem esse ponto.
Logo no início, o magistrado afirma que, em regra, julga improcedentes ações de clientes de banco em casos de golpe por “falsa central telefônica”. Expõe com franqueza como costuma decidir. Reconhece o seu padrão decisório.
Mas, na mesma sentença, vem a inflexão:
“Este caso é diferente.”
Ali, o golpe não se deu por engenharia social comum com ligação de número desconhecido/aleatório (fortuito externo, culpa exclusiva do consumidor), mas pela simulação de canal oficial do banco — com uso do mesmo número da central (fortuito interno, responsabilidade objetiva do banco).
O juiz olha para o passado.
Reconhece o padrão.
Mas decide não segui-lo.
Isso é Direito em estado puro.
Esse gesto não é estranho ao funcionamento dos sistemas jurídicos. Na Common Law, por exemplo, mesmo com binding precedents, nunca houve rigidez absoluta. Casos são distinguished, entendimentos são limitados e, quando necessário, precedentes são superados (overruled).
O nome muda.
O gesto é o mesmo.
O Direito não se move pelo que é ordinário.
Move-se justamente quando o precedente já não encaixa mais na realidade que se apresenta.
Talvez a IA não reduza o papel humano no Judiciário.
Talvez ela o concentre.
Modelos auxiliam com os 80% — o padrão, o repetível, o previsível.
Juízes se concentram nos 20% — os casos “diferentes”, que exigem escolha real.
E nós, advogados, continuamos fazendo aquilo que sempre fizemos:
avaliando, com julgamento profissional, se o melhor caminho é pedir a aplicação do padrão (80%)
ou justificar a exceção (20%).
Saber quando pedir o automático —
e quando justificar a inflexão —
sempre foi o verdadeiro trabalho do advogado.
No fim, a tecnologia pode mudar o entorno.
Mas o motor do Direito continua sendo o mesmo:
a decisão consciente de dizer que, desta vez,
o padrão basta —
ou não.


