A ascensão vertiginosa da inteligência artificial generativa trouxe consigo desafios jurídicos sem precedentes para o ordenamento brasileiro. A capacidade de criar vídeos, áudios e imagens hiper-realistas, conhecidos como deepfakes, colocou em xeque os tradicionais mecanismos de proteção aos direitos da personalidade.
Não se trata apenas de uma evolução tecnológica, mas de uma ruptura na forma como a verdade e a identidade são percebidas no ambiente digital. Para o profissional do Direito, compreender as nuances da responsabilidade civil e penal envolvendo o uso indevido de imagem e voz por IAs é imperativo e vai muito além do básico.
O cenário atual exige uma análise que ultrapasse o senso comum e adentre a dogmática jurídica de alto nível. Estamos diante de colisões de direitos fundamentais que demandam uma ponderação sofisticada. De um lado, a liberdade de expressão, a sátira e a inovação tecnológica. Do outro, a inviolabilidade da imagem, da honra e a integridade do processo democrático.
Direitos da Personalidade: Entre a Proteção e a Sátira
O Código Civil Brasileiro, em seu artigo 11, estabelece que os direitos da personalidade são intransmissíveis e irrenunciáveis. A imagem e a voz, como emanações da personalidade humana, gozam de proteção autônoma e status constitucional.
O problema central dos deepfakes reside na apropriação não autorizada desses atributos para a criação de conteúdo sintético. Diferente de uma simples fotografia, o deepfake manipula a realidade. Contudo, a análise jurídica não pode ser simplista. É necessário distinguir o dolo de enganar da liberdade artística.
Embora a Súmula 403 do STJ dispense a prova do prejuízo para indenização por uso comercial de imagem, a aplicação dessa lógica aos deepfakes exige cautela. A doutrina contemporânea aponta para a necessidade de sopesamento: um vídeo claramente satírico, rotulado como tal e sem potencial de induzir o “homem médio” a erro, pode estar abarcado pela liberdade de expressão (animus jocandi).
Por outro lado, a criação de uma “persona digital” para atribuir atos ilícitos ou vergonhosos, ou para vender produtos fraudulentos, constitui violação frontal à dignidade humana, demandando reparação severa por danos morais e materiais.
Para advogados que desejam atuar nesta fronteira, compreender onde termina a paródia e começa o ilícito é essencial. O aprofundamento acadêmico através de uma Pós-Graduação em Direito Digital permite ao profissional navegar com segurança nessas teses complexas.
O Laboratório Regulatório: A Resolução do TSE
Enquanto o Código Civil e o Marco Civil da Internet (MCI) oferecem as bases gerais, é no Direito Eleitoral que a jurisprudência sobre deepfakes está sendo forjada com maior rigor. Ignorar este cenário é um erro estratégico.
A Resolução nº 23.732/2024 do Tribunal Superior Eleitoral (TSE) estabeleceu regras duríssimas para o uso de IA nas eleições, servindo como um “beta test” para a futura regulação geral. Entre as inovações, destacam-se:
- Dever de Rotulagem: Todo conteúdo gerado por IA deve ser explicitamente identificado.
- Vedação Absoluta: É proibido o uso de deepfakes para criar diálogos falsos com candidatos, sob pena de cassação do registro ou mandato.
- Responsabilidade das Big Techs: Diferente da regra geral do MCI, no período eleitoral, as plataformas podem ser responsabilizadas solidariamente se não removerem conteúdo desinformativo notório com agilidade.
A Responsabilidade Civil e o Tema 987 do STF
No âmbito cível geral, a discussão sobre a responsabilidade das plataformas é o ponto nevrálgico. O artigo 19 do Marco Civil da Internet consagra o sistema de “notice and takedown” judicial (só há responsabilidade se descumprir ordem judicial).
Entretanto, essa lógica está sob forte tensão. O Supremo Tribunal Federal, através do Tema 987 de Repercussão Geral, discute a constitucionalidade desse artigo. A tendência global, e que começa a ecoar no Brasil, é a exigência de um dever de cuidado (duty of care) mais proativo das plataformas.
Além disso, há uma distinção crucial que o advogado deve explorar: conteúdo orgânico versus impulsionamento pago.
Quando a plataforma recebe dinheiro para impulsionar um deepfake fraudulento, ela deixa de ser mera hospedeira e torna-se parceira comercial. Nesse caso, a jurisprudência tende a afastar a proteção do art. 19 do MCI, aplicando o Código de Defesa do Consumidor e a responsabilidade objetiva pelo risco do empreendimento.
Implicações Penais e o Desafio da Jurisdição
Na esfera criminal, os deepfakes potencializam crimes contra a honra (calúnia, difamação, injúria) e patrimoniais (estelionato). A vítima não é apenas ofendida; ela é visualmente “materializada” cometendo atos que nunca praticou.
Contudo, a tipificação correta é apenas metade da batalha. O maior desafio para o advogado criminalista e para o Ministério Público é a obtenção da prova e a identificação da autoria.
As grandes plataformas frequentemente alegam que os dados estão armazenados em servidores no exterior (geralmente EUA) e exigem o uso do MLAT (tratado de cooperação internacional), um processo moroso que muitas vezes resulta na impunidade.
O advogado combativo deve dominar as teses de aplicação direta da legislação brasileira (baseada no art. 11 do Marco Civil da Internet) e a soberania dos dados, para exigir que as empresas com representação no Brasil forneçam os logs imediatamente, sob pena de crime de desobediência.
O estudo aprofundado sobre Crimes Contra a Honra é indispensável para manobrar essas questões processuais e materiais no ambiente digital.
A Prova Digital e a Cadeia de Custódia
Como provar a falsidade de um vídeo perfeito? O simples “print” não basta. A defesa técnica exige a preservação da integridade da prova digital (Art. 158-A do CPP).
- Coleta Imediata: É vital coletar o vídeo e os metadados antes que sejam deletados ou comprimidos pelas plataformas (o que altera o “hash” do arquivo).
- Ata Notarial e Blockchain: O uso de meios de certificação de anterioridade e integridade é fundamental.
- Assistência Técnica: A perícia deve buscar artefatos visuais e inconsistências de áudio que denunciem a síntese por IA.
O Futuro da Regulação e o Papel do Judiciário
O Brasil caminha para uma regulação específica com o PL 2338/2023, que visa classificar os riscos da IA. Enquanto isso, o Judiciário atua preenchendo as lacunas através de princípios constitucionais.
Para a advocacia, isso abre um vasto campo. Empresas precisam de compliance digital para evitar o uso indevido de suas ferramentas. Vítimas precisam de tutela de urgência instruída com laudos técnicos robustos, demonstrando o periculum in mora da viralização.
A atuação jurídica nesses casos não permite amadorismo. Requer agilidade, conhecimento técnico e uma visão estratégica que antecipe as defesas das plataformas.
Quer dominar as complexidades da tecnologia e se destacar na advocacia moderna com a profundidade que o mercado exige? Conheça nosso curso Pós-Graduação em Direito Digital e transforme sua carreira.
Insights sobre o tema
- Responsabilidade pelo Lucro: Plataformas que lucram com anúncios de deepfakes (golpes ou difamação impulsionada) tendem a responder solidariamente, independentemente de ordem judicial prévia.
- O Laboratório Eleitoral: As regras do TSE sobre deepfakes (Res. 23.732) são a vanguarda jurídica e provavelmente influenciarão as decisões cíveis e penais comuns no futuro próximo.
- Cadeia de Custódia: A validade de uma prova de deepfake depende menos do que se vê no vídeo e mais da preservação dos metadados originais do arquivo.
- Paródia vs. Fake News: A defesa jurídica de quem cria conteúdo deve focar na clara sinalização de sátira; a ausência de aviso de “conteúdo sintético” milita a favor do dolo de enganar.
- Soberania de Dados: A tese de que “dados nos EUA exigem carta rogatória” está enfraquecendo; o judiciário brasileiro tem exigido cumprimento direto da lei nacional para empresas que operam aqui.
Perguntas e Respostas
1. É necessário provar prejuízo financeiro para processar alguém por criar um deepfake com minha imagem?
Não necessariamente. Se o uso for comercial, a Súmula 403 do STJ presume o dano. Se for ofensivo à honra, o dano moral também é presumido (in re ipsa). Contudo, a defesa poderá alegar liberdade de expressão se o conteúdo for inequivocamente humorístico ou artístico, exigindo uma análise caso a caso.
2. As plataformas digitais podem ser responsabilizadas por vídeos falsos?
A regra geral do Marco Civil (Art. 19) exige descumprimento de ordem judicial para gerar responsabilidade. Porém, existem exceções importantes: 1) Em casos de pornografia de vingança (nudez não consentida); 2) Se o conteúdo foi impulsionado (anúncio pago); 3) No contexto eleitoral, conforme regras do TSE; 4) A depender do julgamento do Tema 987 pelo STF, que pode mudar esse entendimento.
3. Qual a diferença entre calúnia comum e a praticada via deepfake?
A tipificação é a mesma, mas a gravidade e as consequências mudam. O Código Penal prevê aumento de pena para crimes contra a honra cometidos nas redes sociais (triplicação da pena). Além disso, a verossimilhança do deepfake aumenta o potencial lesivo, o que deve ser considerado na dosimetria da pena e no valor da indenização cível.
4. Como obter os dados do autor do deepfake se a plataforma diz que estão nos EUA?
O advogado deve fundamentar o pedido no Art. 11 do Marco Civil da Internet, que submete à lei brasileira qualquer operação de coleta de dados em território nacional, independentemente de onde os servidores estejam. A jurisprudência do STJ tem avançado para afastar a necessidade de carta rogatória (MLAT) quando a empresa possui filial no Brasil.
5. O que a Resolução do TSE mudou sobre deepfakes?
Ela criou um precedente rigoroso: proibiu deepfakes que simulam conversas com candidatos, exigiu rótulos claros em qualquer conteúdo de IA e estabeleceu responsabilidade solidária das plataformas em casos de desinformação grave durante as eleições, servindo de modelo para futuras leis civis.
Aprofunde seu conhecimento sobre o assunto na Wikipedia.
Acesse a lei relacionada em Projeto de Lei nº 2338/2023
Este artigo teve a curadoria da equipe da Legale Educacional e foi escrito utilizando inteligência artificial a partir do seu conteúdo original disponível em https://www.conjur.com.br/2025-dez-04/tiktok-deve-bloquear-conta-de-videos-falsos-da-monja-coen-feitos-com-ia/.