A Responsabilidade Civil e os Limites Éticos da IA na Advocacia: Uma Análise Dogmática
Da “Caixa Preta” à Atrofia Cognitiva: Os Riscos da Automação Forense
A advocacia contemporânea enfrenta uma transição que ultrapassa a mera modernização tecnológica; trata-se de uma redefinição ontológica da produção intelectual jurídica. A inserção de algoritmos generativos na rotina forense, embora prometa eficiência, introduz o fenômeno da “caixa preta” na elaboração de teses. O ato de redigir, historicamente o momento de maturação do raciocínio jurídico, corre o risco de se tornar um processo mecânico de validação superficial.
A inteligência artificial, por mais sofisticada que seja, opera sobre padrões probabilísticos e não hermenêuticos. Para o jurista, delegar a construção argumentativa a um sistema automatizado exige mais do que supervisão; exige uma senioridade prévia. Há um dilema pedagógico em curso: se o advogado iniciante delega a pesquisa e a redação à máquina, ele bloqueia o desenvolvimento do próprio raciocínio jurídico. A curadoria da informação, tão exaltada na era digital, só é possível para quem detém profundidade técnica. Sem base doutrinária sólida, a “validação” torna-se uma ficção, e a automação, uma armadilha que conduz à atrofia cognitiva da classe.
A Teoria do Risco Profissional e a Insuficiência da Culpa “In Vigilando”
No ordenamento jurídico brasileiro, a responsabilidade civil do advogado é tradicionalmente subjetiva e de meio. Contudo, a doutrina clássica da culpa in eligendo e culpa in vigilando mostra-se insuficiente para abarcar a complexidade dos riscos trazidos pela IA. Ao adotar uma ferramenta tecnológica que sabidamente possui potencial para “alucinar” (criar jurisprudência ou fatos inexistentes), o profissional atrai para si a Teoria do Risco Profissional.
Não basta alegar que houve revisão. A insistência no uso de ferramentas falhas sem um rigoroso protocolo de verificação pode transmutar a obrigação de meio em uma responsabilidade objetiva pelos danos resultantes. O erro do software jamais será excludente de responsabilidade perante o tribunal; pelo contrário, a utilização de tecnologia não homologada ou imprecisa para fundamentar direitos alheios pode configurar ato ilícito por si só. A confiança cega na tecnologia não gera apenas erros grotescos, mas atrai o dever de indenizar integralmente pela perda de uma chance. Para mitigar esses riscos e compreender a extensão dessa responsabilidade, a atualização técnica é mandatória, sendo recomendada a busca por especializações sérias como o curso de Advocacia Exponencial em IA.
O Sigilo Profissional sob Ataque e a Auditoria de Fornecedores
No tocante à ética, é necessário abandonar o discurso de que o uso de dados em IA “pode” configurar violação. A realidade é taxativa: a inserção de dados sensíveis e fatos concretos de clientes em plataformas de IA públicas configura violação direta do sigilo profissional.
O advogado não responde apenas pelo que digita no prompt, mas pelos termos de uso da ferramenta que contrata. A responsabilidade ética estende-se à escolha da arquitetura do software. Utilizar ambientes não segregados ou nuvens públicas para processar segredos industriais ou a intimidade das partes expõe o escritório a sanções disciplinares severas e à responsabilização pela Lei Geral de Proteção de Dados (LGPD). A ética profissional exige, hoje, uma verdadeira auditoria de fornecedores de tecnologia. A anonimização manual é falha e insuficiente; a proteção do cliente exige ambientes digitais blindados.
A Nulidade dos Atos Processuais e a “Justiça Circular”
A discussão sobre a validade dos atos processuais avança para o terreno das nulidades. O princípio do devido processo legal e o artigo 93, IX, da Constituição Federal exigem que as decisões sejam fundamentadas racionalmente. O risco iminente é o de um “sistema de justiça circular”, onde petições geradas por algoritmos são analisadas por decisões também geradas por algoritmos, esvaziando a ratio decidendi humana.
O advogado deve estar atento não apenas à sua produção, mas à do Judiciário. Sentenças genéricas, baseadas em “alucinações” ou padronizações algorítmicas, devem ser combatidas via preliminares de nulidade absoluta. A paridade de armas no processo civil não pode ser quebrada pelo uso desleal de automação. A defesa técnica exige que o advogado saiba identificar quando a parte contrária ou o próprio julgador utilizou IA de forma irresponsável. O domínio sobre o Direito Digital deixa de ser um diferencial para se tornar um requisito de validade da atuação forense, tema explorado com rigor na Pós-Graduação em Direito Digital.
O Futuro: Curadoria, Estratégia e Humanidade
O mercado jurídico caminha para um modelo onde a eficiência operacional é necessária, mas a inteligência natural é o artigo de luxo. A responsabilidade é indelegável. O Direito lida com bens da vida, liberdades e patrimônios que não cabem na lógica binária.
- A batalha será probatória: Incidentes processuais para verificar a autoria humana de peças e sentenças tornar-se-ão comuns.
- Compliance Digital: O escritório deve ter protocolos rígidos sobre o que pode e o que não pode ser processado por IA.
- Protagonismo Intelectual: A ferramenta deve servir à senioridade para ampliar a capacidade estratégica, jamais para substituir o aprendizado do júnior.
O advogado que sobreviverá a essa transição não é o que produz mais rápido, mas o que garante a segurança jurídica em um ambiente de incertezas tecnológicas. Entender a IA não como um atalho, mas como uma estrutura de negócio que demanda gestão de riscos, é o foco do curso Advocacia como Negócio em IA.
Insights Fundamentais
- A responsabilidade civil pelo uso de IA pode invocar a Teoria do Risco Profissional, impedindo a alegação de “erro de sistema” como defesa.
- A inserção de dados de clientes em IAs generativas públicas (como o ChatGPT gratuito) é uma violação objetiva do sigilo profissional e da LGPD.
- A delegação prematura de tarefas intelectuais à IA por advogados júnior gera atrofia cognitiva, comprometendo a formação de futuros juristas.
- Há risco de nulidade absoluta em decisões judiciais fundamentadas exclusivamente por algoritmos, cabendo ao advogado fiscalizar a jurisdição.
- A curadoria jurídica exige alta competência técnica prévia; sem ela, a “supervisão” da máquina é ineficaz e perigosa.
Perguntas e Respostas
Pergunta 1: O advogado pode culpar o software se a petição contiver jurisprudência inexistente?
Resposta: Não. A responsabilidade do advogado é indelegável. Ao assinar a peça, ele avoca para si a autoria e a veracidade do conteúdo. Alegar falha do software seria confessar imperícia ou negligência grave (culpa in vigilando), além de atrair a responsabilidade pelo risco da ferramenta escolhida.
Pergunta 2: É seguro colocar o nome do cliente e os fatos do caso no ChatGPT para gerar uma peça?
Resposta: Não. Isso configura violação do dever de sigilo e quebra de confidencialidade, além de infração à LGPD. Ferramentas públicas utilizam os dados inseridos para treinamento. Dados de clientes só devem ser processados em ambientes corporativos privados e com cláusulas contratuais específicas de proteção de dados.
Pergunta 3: O uso de IA pelo Judiciário pode anular uma sentença?
Resposta: Sim. Se ficar comprovado que a decisão foi proferida por um sistema automatizado sem a devida fundamentação humana e análise fática (decisão robótica), viola-se o artigo 93, IX, da Constituição, ensejando a nulidade absoluta do ato por falta de prestação jurisdicional efetiva.
Pergunta 4: Como o advogado júnior deve usar a IA sem prejudicar seu aprendizado?
Resposta: A IA deve ser usada para tarefas acessórias (formatação, resumo de textos, busca inicial), e não para a atividade-fim (raciocínio jurídico e redação de teses). O aprendizado exige o esforço intelectual da pesquisa e da escrita; delegar isso à máquina precocemente impede o desenvolvimento das competências necessárias para a curadoria futura.
Pergunta 5: O cliente precisa saber que o escritório utiliza IA?
Resposta: Por um dever de transparência e boa-fé, sim. Mais do que isso, os contratos de honorários devem prever cláusulas sobre o uso de tecnologia e tratamento de dados, definindo os limites da exposição das informações do constituinte às ferramentas de terceiros.
Aprofunde seu conhecimento sobre o assunto na Wikipedia.
Acesse a lei relacionada em Lei nº 8.906, de 4 de julho de 1994
Este artigo teve a curadoria da equipe da Legale Educacional e foi escrito utilizando inteligência artificial a partir do seu conteúdo original disponível em https://www.conjur.com.br/2025-nov-29/a-ia-minuta-mas-quem-decide/.