Desde julho de 2025, o uso de inteligência artificial no Poder Judiciário brasileiro é disciplinado pela Resolução CNJ nº 615/2025, que revogou a Resolução nº 332/2020 e estabeleceu um regime normativo mais abrangente, voltado especificamente para os desafios colocados pelos modelos de linguagem de larga escala (LLMs) e pelas IAs generativas. Com o prazo de adequação de 12 meses já encerrado, os tribunais deveriam, em tese, estar operando integralmente dentro das diretrizes fixadas. Compreender esse regime é relevante tanto para empresas que litigam quanto para aquelas que contratam com o Judiciário ou fornecem tecnologia a ele.
A resolução estrutura o uso de IA a partir de uma classificação de riscos em três camadas. No nível mais restritivo, estão os usos absolutamente vedados: sistemas que eliminem a revisão humana dos resultados, que avaliem traços de personalidade para prever reiteração delitiva ou fundamentar decisões trabalhistas, que ranqueiem pessoas com base em comportamento ou situação social para avaliar a plausibilidade de direitos ou testemunhos, e que realizem reconhecimento biométrico de emoções. Essas vedações não admitem flexibilização. Em seguida, as aplicações classificadas como de alto risco, entre elas a valoração de provas em jurisdição contenciosa, a tipificação de fatos como crimes ou atos infracionais, a formulação de juízos conclusivos sobre a aplicação da norma a fatos concretos e a autenticação facial para monitoramento comportamental, estão sujeitas a avaliação de impacto algorítmico, auditorias regulares e, em alguns casos, autorização prévia do Comitê Nacional de IA do Judiciário. As aplicações de baixo risco, como gestão processual, sumarização de documentos, detecção de padrões decisórios para uniformização jurisprudencial e transcrição de áudio e vídeo, são permitidas com supervisão humana e requisitos menos onerosos de registro e monitoramento.
No que diz respeito ao uso de IA generativa, o artigo 19 da resolução autoriza que magistrados e servidores utilizem LLMs como ferramentas de apoio à gestão e à decisão, seja por acesso corporativo habilitado pelo tribunal, seja por contratação direta, desde que atendidas condições específicas. O uso deve ter caráter estritamente auxiliar, sendo vedada a tomada autônoma de decisões judiciais. Dados sigilosos ou protegidos por segredo de justiça não podem ser submetidos a sistemas externos sem prévia anonimização. E, sempre que a IA generativa for utilizada na redação de atos judiciais, deve haver registro automático nos sistemas internos do tribunal, medida que, como se verá, tem implicações processuais relevantes. Empresas fornecedoras de LLMs que contratem com tribunais ficam sujeitas a cláusulas obrigatórias de conformidade com a legislação brasileira, incluindo a LGPD e a vedação ao uso de dados judiciais para treinamento sem autorização expressa.
A governança do sistema é exercida pelo Comitê Nacional de Inteligência Artificial do Judiciário, composto por 14 membros titulares, com representação do CNJ, tribunais, OAB, Ministério Público, Defensoria Pública e sociedade civil. O Comitê tem poderes para classificar e reclassificar soluções, determinar auditorias, limitar ou vedar o uso de ferramentas de mercado e editar o manual de boas práticas para uso de LLMs. Cada tribunal deve manter estrutura interna de transparência e monitoramento de vieses e comunicar ao Comitê, em até 72 horas, qualquer evento adverso relacionado ao uso de IA.
Para empresas em litígio, o regime vigente cria instrumentos concretos de escrutínio sobre decisões assistidas por IA. O artigo 5º, § 3º, assegura à OAB e ao Ministério Público, bem como às partes legitimadas, acesso às avaliações de impacto algorítmico havendo indícios de violação a direitos fundamentais. O registro automático do uso de IA na redação de atos judiciais, previsto no artigo 19, § 6º, abre espaço para impugnações fundadas em falta de transparência ou motivação deficiente. Para empresas de tecnologia que contratam com o Judiciário, as exigências são substanciais e envolvem conformidade com a legislação brasileira, proteção de dados, vedação ao uso de dados judiciais para treinamento e sujeição a auditorias externas.
O Comitê Nacional de IA do Judiciário vem editando atos complementares desde a entrada em vigor da resolução, e o ambiente regulatório permanece em movimento.

