A Autoridade Nacional de Proteção de Dados (ANPD), por meio da Nota Técnica nº 12/2025, consolidou as contribuições recebidas em sua Tomada de Subsídios voltada à regulamentação do item 7 da Agenda Regulatória (biênio 2025-2026), dedicado à inteligência artificial e, em especial, ao direito de revisão de decisões automatizadas, previsto no artigo 20 da Lei Geral de Proteção de Dados (LGPD).

  1. O Contexto da Tomada de Subsídios

A ANPD, reconhecendo os desafios jurídicos, técnicos e éticos relacionados ao uso crescente de sistemas de IA, optou por uma abordagem participativa. Foram recebidas 124 contribuições de titulares de dados, empresas, entidades do terceiro setor e instituições públicas, com o objetivo de compreender como compatibilizar inovação tecnológica com os direitos fundamentais de proteção de dados.

  1. O Direito à Revisão de Decisões Automatizadas

O artigo 20 da LGPD garante ao titular o direito de solicitar a revisão de decisões tomadas exclusivamente com base em tratamento automatizado de dados pessoais, incluindo aquelas que afetem seus interesses nos âmbitos profissional, consumidor e de crédito.

As contribuições refletem divergências e convergências sobre esse direito:

  • Convergência: Há um entendimento comum sobre a necessidade de transparência, explicabilidade e governança nos sistemas de IA. As decisões automatizadas devem ser acompanhadas de mecanismos que permitam o exercício efetivo dos direitos dos titulares, incluindo canais de atendimento acessíveis e relatórios de impacto à proteção de dados (RIPD).
  • Divergência: Algumas contribuições questionam a viabilidade técnica da revisão individualizada, especialmente quando os dados foram utilizados no treinamento de modelos complexos. Além disso, há debate sobre a possibilidade de excluir ou retreinar modelos para atender pedidos de retificação ou exclusão de dados.
  1. Bases Legais e Salvaguardas

A análise da ANPD identificou que a base legal do consentimento enfrenta sérios desafios, como a dificuldade de revogação e a inviabilidade de rastrear dados utilizados em modelos de IA. Por outro lado, o legítimo interesse é visto como uma base mais viável, desde que seja precedido de teste de balanceamento, acompanhado de medidas como anonimização, minimização de dados e documentação robusta.

  1. Riscos de Discriminação e Boas Práticas

Outro ponto relevante foi a prevenção de discriminações ilícitas ou abusivas. As contribuições destacaram a importância de:

  • Auditorias contínuas e independentes
  • Supervisão humana
  • Equipes multidisciplinares e diversas
  • Avaliações de impacto ético e em direitos humanos

As salvaguardas devem ser proporcionais ao risco envolvido, considerando inclusive a realidade operacional de pequenas empresas e startups.

  1. Conclusão

A Nota Técnica nº 12/2025 da ANPD evidencia a complexidade da regulamentação de sistemas de IA, sobretudo quanto às decisões automatizadas que impactam os direitos dos titulares. A diversidade de opiniões reforça a importância de uma regulação equilibrada, que promova a inovação sem comprometer os princípios da LGPD.

O escritório Farracha de Castro acompanha de perto os desdobramentos dessa agenda regulatória, orientando empresas e organizações para que se adequem às melhores práticas de governança algorítmica e proteção de dados.