A Autoridade Nacional de Proteção de Dados (ANPD), por meio da Nota Técnica nº 12/2025, consolidou as contribuições recebidas em sua Tomada de Subsídios voltada à regulamentação do item 7 da Agenda Regulatória (biênio 2025-2026), dedicado à inteligência artificial e, em especial, ao direito de revisão de decisões automatizadas, previsto no artigo 20 da Lei Geral de Proteção de Dados (LGPD).
- O Contexto da Tomada de Subsídios
A ANPD, reconhecendo os desafios jurídicos, técnicos e éticos relacionados ao uso crescente de sistemas de IA, optou por uma abordagem participativa. Foram recebidas 124 contribuições de titulares de dados, empresas, entidades do terceiro setor e instituições públicas, com o objetivo de compreender como compatibilizar inovação tecnológica com os direitos fundamentais de proteção de dados.
- O Direito à Revisão de Decisões Automatizadas
O artigo 20 da LGPD garante ao titular o direito de solicitar a revisão de decisões tomadas exclusivamente com base em tratamento automatizado de dados pessoais, incluindo aquelas que afetem seus interesses nos âmbitos profissional, consumidor e de crédito.
As contribuições refletem divergências e convergências sobre esse direito:
- Convergência: Há um entendimento comum sobre a necessidade de transparência, explicabilidade e governança nos sistemas de IA. As decisões automatizadas devem ser acompanhadas de mecanismos que permitam o exercício efetivo dos direitos dos titulares, incluindo canais de atendimento acessíveis e relatórios de impacto à proteção de dados (RIPD).
- Divergência: Algumas contribuições questionam a viabilidade técnica da revisão individualizada, especialmente quando os dados foram utilizados no treinamento de modelos complexos. Além disso, há debate sobre a possibilidade de excluir ou retreinar modelos para atender pedidos de retificação ou exclusão de dados.

- Bases Legais e Salvaguardas
A análise da ANPD identificou que a base legal do consentimento enfrenta sérios desafios, como a dificuldade de revogação e a inviabilidade de rastrear dados utilizados em modelos de IA. Por outro lado, o legítimo interesse é visto como uma base mais viável, desde que seja precedido de teste de balanceamento, acompanhado de medidas como anonimização, minimização de dados e documentação robusta.
- Riscos de Discriminação e Boas Práticas
Outro ponto relevante foi a prevenção de discriminações ilícitas ou abusivas. As contribuições destacaram a importância de:
- Auditorias contínuas e independentes
- Supervisão humana
- Equipes multidisciplinares e diversas
- Avaliações de impacto ético e em direitos humanos
As salvaguardas devem ser proporcionais ao risco envolvido, considerando inclusive a realidade operacional de pequenas empresas e startups.
- Conclusão
A Nota Técnica nº 12/2025 da ANPD evidencia a complexidade da regulamentação de sistemas de IA, sobretudo quanto às decisões automatizadas que impactam os direitos dos titulares. A diversidade de opiniões reforça a importância de uma regulação equilibrada, que promova a inovação sem comprometer os princípios da LGPD.
O escritório Farracha de Castro acompanha de perto os desdobramentos dessa agenda regulatória, orientando empresas e organizações para que se adequem às melhores práticas de governança algorítmica e proteção de dados.