PLANTÃO LEGALE

Carregando...

IA no Judiciário: Limites Éticos e Nulidade de Sentenças

Artigo de Direito
Getting your Trinity Audio player ready...

A Revolução Algorítmica no Judiciário, a Dogmática Processual e os Limites Éticos da Inteligência Artificial

A integração da tecnologia ao sistema de justiça não é um fenômeno recente, mas a velocidade com que a inteligência artificial generativa adentrou os gabinetes e escritórios de advocacia impõe uma reflexão dogmática urgente e aprofundada. O Direito, por sua natureza conservadora e garantista, colide frontalmente com a dinamicidade e, por vezes, a opacidade das ferramentas tecnológicas modernas. Não se trata apenas de agilizar processos, mas de questionar a própria validade jurídica dos atos processuais construídos por autômatos e os riscos de um “non liquet” tecnológico.

A discussão central reside na delegação da atividade intelectual privativa do magistrado a sistemas automatizados. Quando um juiz utiliza uma ferramenta de inteligência artificial para auxiliar na fundamentação de uma sentença, ele navega por uma linha tênue entre a eficiência processual e a violação do dever constitucional de motivação. A Constituição Federal, em seu artigo 93, inciso IX, combinada com o artigo 489, § 1º do Código de Processo Civil, é taxativa ao exigir que todas as decisões judiciais sejam fundamentadas analiticamente. Essa fundamentação pressupõe um exercício cognitivo humano, uma valoração racional das provas e dos argumentos trazidos aos autos.

O uso indiscriminado de algoritmos para a produção de textos jurídicos decisórios levanta a hipótese de uma nulidade absoluta por ausência de fundamentação. Diferente da “inexistência” do ato — vício reservado a situações extremas, como sentença assinada por não-juiz —, a decisão gerada por IA e assinada por magistrado investido existe e produz efeitos, mas padece de um vício insanável. Se o magistrado adota o texto gerado pela máquina sem uma revisão crítica exauriente, ele incorre em error in procedendo, abdicando de sua função jurisdicional e violando o princípio do juiz natural. O Estado-Juiz é personificado na figura humana justamente pela capacidade de interpretação teleológica e equidade, atributos que escapam aos códigos binários.

A “Caixa Preta” e a Necessidade de Explainable AI (XAI)

A transparência algorítmica é um ponto crucial, mas a crítica deve ir além da mera publicidade dos atos. O problema dos Grandes Modelos de Linguagem (LLMs) reside no conceito de “caixa preta” (black box): muitas vezes, devido à natureza probabilística e não determinística das redes neurais, não se sabe exatamente como o input de dados gerou aquele output específico.

Diante disso, surge a necessidade dogmática da explicabilidade (accountability). Juridicamente, não basta saber que a IA sugeriu a decisão; é imperativo que o magistrado consiga explicar racionalmente o motivo da adoção daquele entendimento sem depender da “lógica da máquina”. Se a fundamentação da sentença não for auditável pela cognição humana, ela é nula. A defesa técnica deve estar atenta: se a explicação do julgado depende de parâmetros inacessíveis ou inexplicáveis da IA, há cerceamento de defesa e violação do contraditório substancial.

O Dever de Supervisão e a Resolução 332 do CNJ como Matéria de Defesa

No ordenamento jurídico brasileiro, o Conselho Nacional de Justiça (CNJ) editou a Resolução nº 332 de 2020, que dispõe sobre a ética, a transparência e a governança na produção e no uso de Inteligência Artificial no Poder Judiciário. A norma estabelece que a IA deve servir como ferramenta auxiliar, jamais substitutiva da cognição humana, consagrando o princípio da supervisão humana.

Para o advogado de alta performance, esta Resolução não é apenas uma norma administrativa interna, mas um fundamento para arguição de nulidade processual. A violação do dever de supervisão ou o uso de sistemas não auditados/homologados conforme a Resolução contamina a validade do ato jurídico. O advogado deve estar apto a identificar se o tribunal utilizou ferramentas em desconformidade com a norma e arguir preliminares baseadas nesse vício de procedimento.

Para compreender a profundidade dessas transformações e como manejá-las processualmente, é essencial buscar uma formação técnica sólida. O estudo aprofundado em Pós-Graduação em Direito Digital permite ao operador do direito navegar com segurança nessas águas, utilizando a dogmática processual para combater os efeitos nocivos da tecnologia mal aplicada.

Alucinações Tecnológicas e a Fé Pública

Um dos riscos mais prementes é o fenômeno das “alucinações”. Em termos técnicos, a alucinação ocorre quando a IA gera uma resposta semanticamente plausível, mas factualmente incorreta, inventando jurisprudências ou artigos de lei. A inserção de tais dados em decisões judiciais atenta contra a fé pública e a segurança jurídica (art. 5º, XXXVI da CF).

A advocacia exige hoje uma vigilância redobrada, atuando como fiscal da legalidade tecnológica. O advogado não deve apenas combater a tese da parte contrária, mas auditar a própria decisão judicial. Identificar que uma súmula citada na sentença não existe não é apenas corrigir um erro material, mas demonstrar a ausência de prestação jurisdicional efetiva, abrindo caminho para embargos, apelações ou até ações rescisórias baseadas em erro de fato verificável.

Viés Algorítmico e o Devido Processo Legal Tecnológico

Sistemas de IA treinados em bases de dados históricas tendem a reproduzir sesgos sociais e raciais. A aplicação acrítica dessas ferramentas pode levar a uma discriminação automatizada. Embora a Lei Geral de Proteção de Dados (LGPD), em seu artigo 20, garanta o direito à revisão de decisões automatizadas, há debates sobre sua aplicabilidade irrestrita à atividade jurisdicional, dada a independência dos poderes.

Portanto, a impugnação de decisões enviesadas não deve se pautar apenas na LGPD, mas no conceito de Devido Processo Legal Tecnológico. A garantia constitucional é a de um julgamento humano e justo, não submetido a probabilidades estatísticas discriminatórias. O advogado deve dominar os conceitos de viés de treinamento para demonstrar que a decisão não foi individualizada, ferindo o princípio da isonomia.

A Responsabilidade do Advogado: Entre o Dolo e a Culpa Grave

A responsabilidade pelo uso ético da IA recai pesadamente sobre os advogados. A apresentação de petições com precedentes falsos, fruto de alucinação de IA não revisada, tem levado a condenações por litigância de má-fé e processos disciplinares.

Aqui, cabe uma distinção técnica importante para a defesa do profissional:

  • Dolo: A intenção deliberada de enganar o juízo, alterando a verdade dos fatos.
  • Culpa Grave: A negligência ou imprudência extrema no uso da tecnologia (falta de letramento digital), sem necessariamente a intenção de ludibriar.

Embora ambas sejam passíveis de sanção, a distinção é vital perante os Tribunais de Ética e Disciplina da OAB. O advogado que não revisa o output da IA age, no mínimo, com culpa grave, equiparando-se ao dolo para fins de responsabilidade civil, mas demonstrando incompetência tecnológica e não necessariamente má-fé processual estrita. Isso reforça a necessidade urgente de letramento digital: a alegação de desconhecimento tecnológico não serve como excludente de culpabilidade.

Hermenêutica Tecnológica e o Futuro da Jurisdição

Caminhamos para um modelo onde a hermenêutica jurídica deve evoluir para uma hermenêutica tecnológica. Não basta interpretar a lei; é preciso interpretar os dados, os inputs e os outputs dos sistemas que aplicam a lei. O advogado que não compreender essa lógica será um mero homologador de petições robóticas, arriscando sua carreira e a liberdade de seus constituintes.

A educação continuada torna-se o diferencial competitivo e de sobrevivência. Aprofundar-se nos meandros da tecnologia aplicada ao direito é o único caminho para evitar armadilhas e utilizar a inovação com segurança técnica. Cursos como a Pós-Graduação em Direito Digital oferecem o arcabouço teórico e prático necessário para que advogados dominem não apenas o uso das ferramentas, mas a defesa processual contra o mau uso delas pelo Estado ou pela parte adversa.

O magistrado e o advogado do futuro não competirão com a máquina, mas deverão orquestrar o uso da tecnologia mantendo a humanidade e a validade jurídica da decisão. A vigilância deve ser constante e a técnica processual, impecável.

Quer dominar as implicações dogmáticas da Inteligência Artificial e se blindar contra nulidades processuais tecnológicas? Conheça nosso curso Pós-Graduação em Direito Digital e transforme sua carreira com conhecimento de ponta.

Insights sobre o tema

  • Natureza do Vício: Decisões feitas inteiramente por IA sem revisão humana sofrem de nulidade absoluta por falta de fundamentação (art. 93, IX, CF), e não de inexistência.
  • Estratégia Processual: A Resolução 332/2020 do CNJ deve ser usada como matéria preliminar de nulidade em recursos quando houver uso indevido de IA pelo tribunal.
  • Defesa do Advogado: Em casos de erros por uso de IA, a defesa disciplinar deve focar na distinção entre dolo (má-fé) e culpa grave (incompetência tecnológica/negligência).
  • Soberania Humana: O princípio do Devido Processo Legal Tecnológico garante o direito de ser julgado por um humano, e não por um objeto estatístico.

Perguntas e Respostas

1. O uso de IA por juízes sem revisão gera inexistência da sentença?
Tecnicamente, gera nulidade absoluta. Se o juiz investido de jurisdição assina o ato, ele existe no mundo jurídico, mas é nulo por violação do dever constitucional de fundamentação (art. 93, IX, CF) e por configurar error in procedendo.

2. Como o advogado pode usar a Resolução 332 do CNJ a seu favor?
O advogado deve utilizar a Resolução para arguir a nulidade de atos processuais. Se uma decisão foi baseada em IA que não cumpre os requisitos de transparência, auditabilidade e supervisão humana exigidos pela norma, ela está viciada.

3. A LGPD é o único fundamento para revisar decisões automatizadas no Judiciário?
Não, e muitas vezes não é o mais forte, dada a independência jurisdicional. O fundamento mais robusto é o Devido Processo Legal e o princípio do Juiz Natural, que asseguram um julgamento humano e fundamentado, afastando a “caixa preta” dos algoritmos.

4. O advogado que usa IA e insere jurisprudência falsa age sempre com má-fé?
Nem sempre. A má-fé exige dolo (intenção de enganar). Muitas vezes, o advogado age com culpa grave (negligência ou imprudência) ao confiar cegamente na ferramenta. Ambas as condutas são puníveis, mas a distinção é crucial para a defesa em processos ético-disciplinares.

5. O que é Explainable AI (XAI) e qual sua relevância jurídica?
XAI refere-se a sistemas de IA cujas ações podem ser entendidas por humanos. Juridicamente, é essencial para garantir o contraditório. Se a “lógica” da decisão judicial for inexplicável ou inauditável (black box), a decisão carece de fundamentação válida, sendo passível de anulação.

Aprofunde seu conhecimento sobre o assunto na Wikipedia.

Acesse a lei relacionada em Resolução nº 332 de 2020 do CNJ

Este artigo teve a curadoria da equipe da Legale Educacional e foi escrito utilizando inteligência artificial a partir do seu conteúdo original disponível em https://www.conjur.com.br/2025-nov-28/juiz-alerta-para-os-perigos-do-uso-da-inteligencia-artificial-pelos-magistrados/.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *