Plantão Legale

Carregando avisos...

Advogado, IA e Responsabilidade: O Novo Paradigma Ético

Artigo de Direito
Getting your Trinity Audio player ready...

A Responsabilidade Civil e a Ética do Advogado na Era da Inteligência Artificial

A advocacia contemporânea atravessa um momento de transformação estrutural sem precedentes na história do Direito. A introdução de tecnologias baseadas em modelos de linguagem e aprendizado de máquina no cotidiano forense não é apenas uma questão de conveniência operacional, mas um desafio dogmático que toca os pilares da responsabilidade civil e da deontologia jurídica. O fascínio pela velocidade e pela capacidade de processamento de dados muitas vezes ofusca uma premissa fundamental da nossa profissão: a natureza intelectual e personalíssima da prestação de serviços jurídicos.

Ao analisarmos o ordenamento jurídico brasileiro, percebemos que a tecnologia não revoga os deveres de diligência, prudência e técnica que regem o mandato. Pelo contrário, ela os intensifica. O advogado que utiliza ferramentas automatizadas sem o devido crivo crítico não está apenas terceirizando uma tarefa, mas atraindo para si riscos de natureza objetiva e subjetiva que podem comprometer não apenas o resultado de uma demanda, mas a própria integridade de sua licença profissional. É imperativo compreender que a “escala” na advocacia possui limites intransponíveis impostos pela necessidade de cognição humana profunda e pela responsabilidade indelegável sobre a tese jurídica apresentada.

O Dever de Supervisão e a Culpa *In Vigilando*

A utilização de softwares jurídicos avançados traz à tona a discussão sobre a culpa *in vigilando*. Tradicionalmente aplicada à responsabilidade por atos de terceiros sob nossa subordinação, essa modalidade de culpa ganha novos contornos quando o “subordinado” é um algoritmo. O Código de Ética e Disciplina da OAB é claro ao estabelecer que o advogado é o responsável direto pelos atos praticados no exercício do mandato. Quando uma petição é protocolada, a assinatura eletrônica é do profissional, não da máquina.

Isso significa que erros factuais, alucinações jurisprudenciais — fenômeno onde a IA inventa precedentes inexistentes — ou fundamentações jurídicas equivocadas geradas por sistemas automatizados recaem inteiramente sobre o causídico. A alegação de falha no sistema não exime o advogado de sua responsabilidade civil perante o cliente. A jurisprudência pátria, ao tratar da responsabilidade dos profissionais liberais, baseia-se na aferição de culpa. No entanto, a negligência em revisar o conteúdo produzido por uma ferramenta tecnológica configura, per si, a imperícia necessária para a caracterização do dever de indenizar, nos termos dos artigos 186 e 927 do Código Civil.

Para o profissional que deseja mitigar esses riscos e compreender a fundo as nuances da tecnologia aplicada ao direito, o estudo contínuo é obrigatório. Entender o funcionamento dos algoritmos não é mais exclusividade da área de TI, mas requisito para a Pós-Graduação em Direito Digital, onde se debate a extensão da responsabilidade humana sobre atos automatizados. A falta de compreensão técnica pode ser interpretada como imprudência qualificada.

O dever de supervisão estende-se também à adequação da estratégia processual. Ferramentas de IA operam com base em padrões estatísticos e probabilísticos, enquanto o Direito opera com lógica normativa e valorativa. A distinção é sutil, mas crucial. Um argumento pode ser estatisticamente recorrente, mas juridicamente inadequado para o caso concreto devido a uma especificidade fática que a máquina ignorou. O advogado que confia cegamente na probabilidade estatística em detrimento da análise hermenêutica falha em seu dever de melhor esforço.

A Teoria da Perda de uma Chance no Contexto Tecnológico

Um desdobramento preocupante da dependência tecnológica excessiva é a aplicação da Teoria da Perda de uma Chance. Se um advogado deixa de suscitar uma tese vencedora ou perde um prazo porque confiou na automação de leitura de publicações ou na elaboração automática de peças, e isso resulta em prejuízo ao cliente, a responsabilidade é patente. A “chance” perdida deve ser séria e real. No contexto atual, a disponibilidade de ferramentas não justifica a desídia; ao contrário, a facilidade de acesso à jurisprudência impõe um standard de qualidade ainda maior.

O magistrado, ao analisar uma conduta desidiosa causada por falha tecnológica não supervisionada, tenderá a ser rigoroso. O judiciário não admite que a automação sirva de escudo para a má prática profissional. A responsabilidade subjetiva do advogado, consagrada no Código de Defesa do Consumidor e no Estatuto da Advocacia, exige que a atuação humana seja o filtro final e definitivo de qualquer produto jurídico entregue.

Deontologia Jurídica e o Sigilo Profissional

Outro aspecto nevrálgico refere-se ao sigilo profissional e à proteção de dados. Ao inserir informações de um caso concreto em plataformas de inteligência artificial generativa, o advogado pode estar, inadvertidamente, violando o dever de confidencialidade. Muitos desses sistemas utilizam os dados inseridos pelos usuários para treinar e refinar seus próprios modelos. Isso significa que detalhes sensíveis de um processo, segredos industriais de um cliente ou dados pessoais protegidos pela LGPD podem passar a compor o banco de dados da ferramenta, acessível, ainda que indiretamente, a terceiros.

A violação do sigilo profissional é uma infração ética grave. O advogado deve ter total controle sobre onde os dados de seus clientes são armazenados e processados. A utilização de plataformas gratuitas ou termos de uso que permitem o reaproveitamento de dados para “melhoria do sistema” é incompatível com a advocacia de alto nível e com a legislação de proteção de dados vigente no Brasil.

Para navegar com segurança neste cenário, é fundamental que o advogado busque capacitação específica. Entender como configurar essas ferramentas e quais escolher é parte do currículo abordado em cursos como A Jornada do Advogado de Elite em IA, que prepara o profissional não apenas para usar, mas para dominar a tecnologia com segurança jurídica. A ignorância sobre os termos de uso de um software não exclui a ilicitude da quebra de sigilo.

Além disso, a Lei Geral de Proteção de Dados (Lei 13.709/2018) impõe aos controladores e operadores de dados responsabilidades objetivas em caso de vazamento ou tratamento inadequado. O escritório de advocacia, como controlador dos dados dos clientes, responde por incidentes de segurança. A inserção de dados em IAs públicas sem anonimização prévia pode ser considerada um tratamento irregular, sujeito a sanções administrativas da ANPD e reparações cíveis.

A Necessidade da Curadoria Humana

A ideia de que a advocacia pode ser escalada infinitamente esbarra na natureza artesanal da aplicação do Direito. Cada caso carrega singularidades que exigem a sensibilidade humana para a distinção (distinguishing) e a superação (overruling) de precedentes. A máquina busca o padrão; o advogado de excelência busca a exceção, o detalhe que muda o rumo da jurisprudência. A automação serve à repetição, mas o Direito avança através da inovação argumentativa, algo que ainda é intrinsecamente humano.

A curadoria humana é o elemento que valida a ética e a técnica. O advogado deve atuar como um “arquiteto” da solução jurídica, utilizando a tecnologia como um “operário” eficiente, mas jamais permitindo que o operário desenhe a planta da obra. A inversão desses papéis é o caminho mais curto para a responsabilização civil e o desprestígio profissional. A confiança do cliente é depositada na *intuitu personae*, na confiança pessoal no saber do advogado, e não na capacidade de processamento de seu computador.

Limites da Automação na Hermenêutica Jurídica

A interpretação da lei não é um cálculo matemático exato. O Direito é uma ciência social aplicada, sujeita a mutações culturais, políticas e axiológicas. Algoritmos são treinados com dados do passado. Eles são excelentes em prever o que já aconteceu, mas frequentemente falham em interpretar novas leis ou mudanças de entendimento social que ainda não foram consolidadas em vastos volumes de dados.

Confiar na interpretação automatizada de textos normativos recentes ou de princípios constitucionais abertos é um risco jurídico elevado. A hermenêutica exige a ponderação de valores, o sopesamento de princípios e a adequação social da norma, operações mentais que envolvem consciência e empatia. A resposta “correta” dada por uma IA pode ser tecnicamente lógica, mas juridicamente desastrosa se desconsiderar a finalidade social da norma ou a boa-fé objetiva, conceitos que exigem subjetividade para serem aplicados.

Portanto, a “escala” na advocacia, quando buscada através da tecnologia, encontra um teto na capacidade humana de revisar e validar. Não é possível crescer indefinidamente sem aumentar proporcionalmente a estrutura de controle de qualidade. A advocacia de massa que ignora essa premissa tende a se tornar uma advocacia de risco, acumulando passivos ocultos em cada petição não revisada minuciosamente.

O Futuro da Advocacia e a Competência Tecnológica

O cenário desenhado não é apocalíptico, mas de alerta e adaptação. O advogado do futuro não é aquele que compete com a máquina, mas aquele que a governa. A competência tecnológica tornou-se uma soft skill jurídica essencial. Saber formular os comandos corretos (prompts), entender as limitações do sistema e verificar as fontes primárias são as novas habilidades básicas da profissão.

A resistência ao uso da tecnologia é tão prejudicial quanto o seu uso irresponsável. O equilíbrio reside na formação continuada e na postura ética inegociável. O mercado jurídico punirá tanto os obsoletos quanto os imprudentes. A excelência técnica agora engloba a capacidade de integrar ferramentas digitais ao raciocínio jurídico clássico, sem permitir que a ferramenta se sobreponha ao intelecto.

A responsabilidade final é sempre do humano. A assinatura na peça processual é o garante da legalidade e da veracidade do que ali está escrito. Em um mundo onde a produção de texto se tornou commodity, o valor do advogado reside no julgamento, na estratégia e na responsabilidade assumida. A tecnologia acelera o meio, mas não altera o fim da advocacia: a administração da justiça e a defesa dos direitos, tarefas que exigem, acima de tudo, humanidade.

Quer dominar a Inteligência Artificial na advocacia com segurança e se destacar no mercado? Conheça nosso curso A Jornada do Advogado de Elite em IA e transforme sua carreira com responsabilidade e técnica.

Insights sobre o Tema

A automação na advocacia não substitui o juízo de valor humano; ela apenas altera o foco do trabalho do advogado da redação braçal para a revisão estratégica e curadoria de conteúdo. O maior risco jurídico atual não é a tecnologia em si, mas a presunção de infalibilidade dos sistemas automatizados. A responsabilidade civil do advogado evolui para englobar a “culpa na escolha” da ferramenta e a “culpa na vigilância” do resultado, tornando o conhecimento técnico sobre o funcionamento dessas ferramentas um imperativo ético e legal.

Perguntas e Respostas

1. O advogado pode ser responsabilizado se a IA citar uma lei revogada em uma petição?
Sim, a responsabilidade é inteiramente do advogado. Ele tem o dever de supervisão e revisão de todo o conteúdo produzido por sua equipe ou ferramentas. A falha em verificar a vigência da lei configura imperícia e negligência, passível de indenização por perda de uma chance ou danos materiais, além de infração ética.

2. O uso de dados de clientes para treinar IAs viola a LGPD?
Potencialmente sim. Se os dados pessoais ou sensíveis dos clientes forem inseridos em plataformas públicas ou cujos termos de uso permitam o reaproveitamento de dados para treinamento do modelo, sem o consentimento explícito e informado do titular e sem anonimização, há violação da LGPD e do dever de sigilo profissional.

3. A tecnologia permite que um único advogado cuide de milhares de processos com a mesma qualidade?
Não necessariamente. Embora a tecnologia aumente a capacidade operacional, a qualidade jurídica depende da análise das particularidades de cada caso (curadoria). A escala infinita é um mito porque a supervisão humana é um gargalo necessário para garantir a segurança jurídica e evitar a advocacia de massa genérica e ineficaz.

4. Como a teoria da “Perda de uma Chance” se aplica ao uso de IA?
Se o advogado utiliza uma ferramenta que falha em identificar uma jurisprudência recente favorável ou perde um prazo por erro de sistema, e essa falha retira do cliente a chance real de vencer a demanda, o advogado pode ser condenado a indenizar o cliente pela probabilidade do êxito que foi desperdiçada pela falta de diligência tecnológica.

5. É ético cobrar honorários por horas de trabalho que foram realizadas por uma IA em minutos?
Esta é uma questão complexa que envolve transparência. A cobrança deve refletir o valor agregado, a complexidade intelectual e a responsabilidade assumida, não apenas o tempo braçal. Cobrar por “horas humanas” quando o trabalho foi automatizado pode ferir o dever de boa-fé e transparência contratual. O ideal é precificar pelo valor da solução jurídica e expertise, não apenas pelo tempo de execução.

Aprofunde seu conhecimento sobre o assunto na Wikipedia.

Acesse a lei relacionada em Lei 13.709/2018

Este artigo teve a curadoria da equipe da Legale Educacional e foi escrito utilizando inteligência artificial a partir do seu conteúdo original disponível em https://www.conjur.com.br/2026-jan-09/o-mito-da-escala-infinita-da-inteligencia-artificial-na-advocacia/.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *