Tecnologia

A Regulação da Inteligência Artificial no Poder Judiciário: Análise Jurídica da Resolução CNJ nº 615/2025 e seus Efeitos sobre a Advocacia e a Jurisdição

Por Adib Feguri, advogado

[email protected]

14/04/2025 13h24

Resumo:

Este artigo examina as implicações jurídicas da Resolução CNJ nº 615/2025, que estabelece parâmetros normativos para o desenvolvimento, uso e governança de sistemas de inteligência artificial (IA) no Poder Judiciário brasileiro. A partir de uma análise crítica e técnica do texto normativo, discute-se a tensão entre inovação tecnológica e garantias constitucionais, os reflexos para a advocacia no exercício do contraditório e da ampla defesa, os riscos sistêmicos à imparcialidade judicial e as oportunidades de transformação institucional por meio da IA. O estudo se ancora nos fundamentos da LGPD, do devido processo legal e da independência funcional da magistratura.

1. Introdução

O avanço exponencial das tecnologias de inteligência artificial (IA), especialmente após a popularização dos modelos de linguagem de larga escala (LLMs), como os sistemas generativos, vem transformando diversas esferas da sociedade, incluindo o Poder Judiciário. Em um cenário de crescente digitalização da justiça, marcado por iniciativas de virtualização processual, automação de fluxos e interoperabilidade sistêmica, a adoção de ferramentas baseadas em IA emerge como resposta à histórica morosidade, à sobrecarga de processos e à necessidade de racionalização administrativa.

No entanto, o uso dessas tecnologias no exercício da jurisdição suscita uma série de dilemas éticos, jurídicos e institucionais. Não se trata apenas de modernização técnica, mas de um deslocamento potencial do locus da decisão jurídica, que pode impactar diretamente a autonomia do julgador, o contraditório, a ampla defesa e a garantia do devido processo legal. Em outras palavras, a adoção de IA no Judiciário não é neutra: ela implica escolhas regulatórias que afetam profundamente a distribuição do poder institucional, os direitos fundamentais e a confiança na imparcialidade da justiça.

Nesse contexto, o Conselho Nacional de Justiça (CNJ) publicou a Resolução nº 615, de 11 de março de 2025, como instrumento normativo que disciplina o desenvolvimento, a governança e o uso de soluções de inteligência artificial no âmbito do Poder Judiciário brasileiro. O texto não apenas atualiza os parâmetros éticos já delineados na Resolução nº 332/2020, mas amplia significativamente o escopo regulatório, sobretudo ao abranger sistemas de IA generativa, reconhecendo a urgência de normatizar essas ferramentas à luz dos princípios constitucionais e da Lei Geral de Proteção de Dados Pessoais (LGPD – Lei nº 13.709/2018).

A Resolução parte de premissas fundamentais: a centralidade da pessoa humana, o respeito aos direitos fundamentais, a transparência algorítmica, a auditabilidade, a supervisão humana e a não-discriminação. Trata-se de um esforço normativo de vanguarda no plano internacional, alinhado a diretrizes como o AI Act da União Europeia, mas que traz especificidades próprias do sistema jurídico brasileiro, como o papel da Ordem dos Advogados do Brasil (OAB) na fiscalização do uso da IA, a necessidade de anonimização de dados processuais e a vedação expressa a modelos que façam predições criminais ou ranqueamentos de sujeitos com base em perfis pessoais ou comportamentais.

Diante disso, o presente artigo tem como objetivo analisar criticamente a Resolução CNJ nº 615/2025 sob três perspectivas interdependentes:

  • As consequências jurídicas e institucionais dessa regulação para os tribunais brasileiros e o funcionamento da jurisdição;
  • Os efeitos diretos sobre a advocacia, especialmente no que tange ao exercício do contraditório, ao acesso à informação e à atuação estratégica perante decisões influenciadas por IA;
  • A identificação dos principais riscos e oportunidades trazidos pela normatização do uso de IA, tanto no plano da eficiência judicial quanto no da proteção de direitos fundamentais.

Ao realizar essa análise, pretende-se contribuir para o debate acadêmico e prático sobre os limites, as potencialidades e os cuidados que devem cercar a incorporação da IA no sistema de justiça brasileiro, reafirmando o compromisso com uma justiça que seja não apenas eficiente, mas também transparente, inclusiva e comprometida com os valores democráticos.

2. Fundamentos Normativos da Resolução CNJ nº 615/2025

A Resolução nº 615 promulgada pelo CNJ constitui uma evolução regulatória significativa no ordenamento jurídico brasileiro ao disciplinar, de maneira abrangente, o uso de inteligência artificial (IA) no Poder Judiciário.

A resolução estabelece diretrizes para o desenvolvimento, utilização, auditoria, monitoramento e governança das soluções de IA aplicadas no Judiciário, sempre em consonância com valores constitucionais, normas infraconstitucionais e tratados internacionais de direitos humanos. Seus fundamentos centrais estão estruturados nos artigos 1º a 4º, os quais apresentam princípios, finalidades e definições basilares para a implementação segura e ética dessas tecnologias no sistema de justiça.

2.1. Centralidade da pessoa humana e respeito aos direitos fundamentais

A Resolução consagra, como fundamento essencial, a centralidade da pessoa humana (art. 2º, IV) e o respeito aos direitos fundamentais (art. 2º, I), assegurando que nenhuma inovação tecnológica poderá comprometer garantias como o devido processo legal, a ampla defesa, a presunção de inocência e o contraditório. Esse eixo normativo reforça a ideia de que a IA não pode operar à revelia da CF/88 nem subverter o papel do juiz natural.

A exigência de supervisão humana em todas as etapas do ciclo de vida dos sistemas de IA (art. 2º, V) é corolário direto desse princípio: ainda que algoritmos possam apoiar decisões, é o magistrado quem deve manter o protagonismo e a responsabilidade final, resguardando a integridade do processo judicial.

2.2. Transparência, explicabilidade e contestabilidade algorítmica

Outro fundamento estruturante é o princípio da transparência algorítmica (art. 3º, II), compreendido como a capacidade de tornar inteligíveis os sistemas automatizados, seus critérios, dados utilizados e lógica decisória. A norma introduz os conceitos de “explicabilidade” e “contestabilidade” (art. 4º, XVIII e XIX), exigindo que os resultados gerados por IA possam ser compreendidos pelos operadores do Direito e, sobretudo, impugnados pelas partes interessadas, garantindo o pleno exercício do contraditório.

A obrigatoriedade de indicadores claros e relatórios públicos sobre o uso da IA (art. 1º, §3º), inclusive por meio da plataforma Sinapses, é uma inovação relevante no cenário regulatório, pois impõe um dever institucional de publicidade ativa que vai além da Lei de Acesso à Informação (Lei nº 12.527/2011), buscando dar visibilidade a aspectos técnicos normalmente opacos para o jurisdicionado.

2.3. Governança algorítmica e gestão de riscos

A Resolução determina que o desenvolvimento e uso de IA pelos tribunais deve observar critérios de governança robustos, auditabilidade, rastreabilidade e mitigação de riscos sistêmicos (art. 2º, VII). Os sistemas são classificados conforme o grau de risco que oferecem aos direitos fundamentais (Capítulo III), e apenas aqueles considerados de baixo ou médio impacto podem ser utilizados com menos rigor. Soluções que envolvam classificação de pessoas, predições criminais ou ranqueamentos comportamentais são vedadas expressamente (art. 10), sob pena de descontinuidade compulsória.

Além disso, o normativo exige o uso de dados representativos, auditáveis e, sempre que possível, anonimizados (art. 7º), em consonância com os princípios da LGPD. O conceito de “privacy by design” e “privacy by default” é incorporado (art. 4º, XIV e XV), exigindo que a privacidade esteja integrada ao projeto desde sua concepção.

2.4. Participação democrática e controle social

A Resolução valoriza a participação institucionalizada de atores externos ao Judiciário no processo de governança da IA. Confere à Ordem dos Advogados do Brasil (OAB), ao Ministério Público e à Defensoria Pública a legitimidade para acesso a relatórios de impacto algorítmico, bem como o direito de peticionar ao Comitê Nacional de Inteligência Artificial (art. 5º, §3º e art. 14, §2º). Trata-se de uma abertura importante ao controle social da tecnologia, evitando decisões algorítmicas opacas e irrevisíveis, e fortalecendo a cultura da transparência no serviço público.

2.5. Harmonização com a legislação infraconstitucional

A resolução não opera em vácuo. Seu texto harmoniza-se com diplomas legais já consolidados no ordenamento, especialmente:

  • A Lei Geral de Proteção de Dados (LGPD – Lei nº 13.709/2018), cuja lógica orienta toda a política de segurança da informação, tratamento de dados e anonimização;
  • A Lei de Acesso à Informação (Lei nº 12.527/2011), ao garantir publicidade dos sistemas utilizados e de seus impactos;
  • A Lei Orgânica da Magistratura (LC nº 35/1979), ao reafirmar que a decisão judicial deve permanecer sob o comando do juiz natural, ainda que auxiliado por ferramentas automatizadas.

3. Consequências Jurídicas para os Tribunais e para o Sistema Judicial

A Resolução CNJ nº 615/2025 inaugura um novo paradigma para o Poder Judiciário, no qual a inteligência artificial deixa de ser apenas uma ferramenta técnica e passa a ser um elemento estrutural da administração da justiça. Esse novo modelo traz consigo impactos institucionais, operacionais e jurídicos de grande alcance, que exigem análise cautelosa sob a ótica do Direito Constitucional, do Processo Civil e da Teoria da Jurisdição.

3.1. Reconfiguração da atividade jurisdicional: da automação ao apoio decisório

Embora a Resolução seja enfática ao afirmar que a IA deve ser usada exclusivamente como instrumento auxiliar (arts. 2º, V e 19, §2º), o simples fato de sistemas automatizados influenciarem o raciocínio decisório já altera a lógica tradicional da jurisdição. A atuação do magistrado, até então plenamente humana, passa a ocorrer em ambiente de cognição assistida, o que exige novos protocolos de responsabilidade, revisão e fundamentação.

Essa reconfiguração exige dos tribunais:

  • Novos padrões internos de controle da influência algorítmica sobre os julgadores;
  • Protocolos para rastreabilidade das interações com IA (art. 21, §2º), o que implica a criação de logs e registros auditáveis;
  • Ferramentas para garantir que a motivação das decisões judiciais continue sendo clara, lógica e racional, conforme exige o art. 93, IX, da Constituição Federal.

Há, portanto, uma necessidade emergente de normas infralegais complementares internas, capazes de compatibilizar a Resolução com a prática cotidiana das decisões judiciais, sobretudo em instâncias com alta carga de trabalho e intensa pressão por produtividade.

3.2. Responsabilidade jurídica e accountability

A introdução de sistemas de IA nos tribunais levanta a seguinte questão jurídica fundamental: quem será responsável por erros, omissões, ou discriminações decorrentes do uso de IA judicial? A Resolução dispõe que a decisão final é sempre do magistrado (arts. 2º, V; 19, §2º e §6º), preservando a autoridade humana. Contudo, na prática, isso não resolve o problema da responsabilidade compartilhada.

Alguns possíveis desdobramentos:

  • Responsabilidade objetiva da Administração Pública, com base no art. 37, §6º da CF, caso um sistema cause dano a jurisdicionados (ex: decisão baseada em algoritmo enviesado);
  • Responsabilidade contratual dos fornecedores de IA, especialmente se houver falha técnica no desenvolvimento ou descumprimento de cláusulas contratuais que envolvam proteção de dados e segurança da informação;
  • Responsabilidade ética e funcional do magistrado, se este adotar de forma acrítica sugestões algorítmicas sem a devida revisão, o que pode configurar negligência funcional.

Nesse contexto, o papel do Comitê Nacional de Inteligência Artificial do Judiciário (arts. 15 e 16) será crucial como instância reguladora e fiscalizadora, podendo inclusive determinar reclassificação de risco e descontinuidade de soluções.

3.3. Compatibilidade com o princípio do juiz natural e com o sistema de precedentes

A atuação da IA, mesmo que sob vigilância humana, pode afetar a personalização da jurisdição, princípio que se manifesta na figura do juiz natural e no valor da identidade física do julgador. A padronização excessiva das decisões, induzida por modelos estatísticos baseados em casos passados, pode reduzir a flexibilidade hermenêutica e comprometer a individualização da justiça.

Além disso, a IA pode provocar uma espécie de “precedente oculto”: ao replicar automaticamente padrões decisórios com base em volume estatístico, o algoritmo naturaliza tendências jurisprudenciais não necessariamente consolidadas, o que conflita com os requisitos de formação legítima de precedentes vinculantes (arts. 926 e 927 do CPC). Isso impõe aos tribunais:

  • Adoção de filtros de curadoria jurídica sobre os datasets utilizados;
  • Mecanismos para evitar o uso automático de estatísticas como substituto da interpretação normativa;
  • Revisões periódicas por comissões interdisciplinares compostas por magistrados, cientistas de dados e especialistas em direitos fundamentais.

3.4. Impacto na administração da justiça e na estrutura institucional dos tribunais

A Resolução impõe aos tribunais obrigações que vão muito além da aquisição de tecnologia. Ela demanda a criação de:

  • Unidades internas de governança algorítmica, responsáveis por auditorias, avaliações de impacto e monitoramento (art. 14);
  • Infraestruturas de segurança da informação robustas, em conformidade com a LGPD e padrões como ISO/IEC 27000 (arts. 28 a 31);
  • Protocolos de capacitação continuada, para que magistrados e servidores compreendam os sistemas que estão usando (art. 16, VII; art. 19, §5º).

Na prática, isso significa que os tribunais terão que repensar suas estruturas organizacionais, capacitar pessoal especializado, reformular processos internos e, eventualmente, redirecionar orçamento para áreas técnicas, o que pode colidir com restrições financeiras e resistências institucionais.

4. Impactos para a Advocacia: Entre a Vigilância Jurídica e a Reconfiguração da Prática Forense

A regulamentação do uso de inteligência artificial no Judiciário impacta direta e profundamente a atividade da advocacia. Como pilar fundamental do sistema de justiça (art. 133 da Constituição Federal), o advogado é, ao mesmo tempo, sujeito processual, fiscal da legalidade e garantidor do devido processo legal. A introdução de sistemas algorítmicos, ainda que sob o manto da supervisão humana, altera o equilíbrio procedimental e inaugura novas assimetrias de informação, exigindo da advocacia uma resposta técnico-jurídica à altura desses desafios.

A Resolução CNJ nº 615/2025 reconhece, em parte, esse papel ao conferir à OAB legitimidade para atuar no monitoramento das soluções de IA. Contudo, as implicações práticas vão além do texto normativo, impondo transformações no próprio exercício da profissão, nos métodos de defesa, na compreensão da motivação judicial e no acesso à justiça.

4.1. Riscos: Novas assimetrias e desafios à ampla defesa

O primeiro e mais sensível impacto reside na criação de uma nova assimetria procedimental: os advogados e jurisdicionados poderão enfrentar decisões que foram, parcial ou integralmente, influenciadas por sistemas algorítmicos cuja lógica interna é muitas vezes incompreensível ou mesmo inacessível para as partes.

A despeito das previsões sobre explicabilidade e contestabilidade (art. 4º, XVIII e XIX), é sabido que sistemas baseados em LLMs e machine learning podem operar como “caixas-pretas”, dificultando o exercício efetivo do contraditório. Isso pode gerar:

  • Impossibilidade de impugnar adequadamente fundamentos ocultos de uma decisão judicial influenciada por IA;
  • Desigualdade de armas processuais, caso o magistrado se valha de ferramentas sofisticadas sem que o advogado saiba ou tenha acesso à mesma estrutura de análise;
  • Risco de decisões padronizadas e descontextualizadas, em que teses jurídicas relevantes são ignoradas por não se ajustarem ao “perfil médio” extraído por modelos estatísticos treinados em dados pretéritos.

Além disso, a opacidade dos algoritmos contratados por entes públicos ou privados pode dificultar ou até inviabilizar auditorias independentes, ainda que o advogado ou a parte possua legitimidade para requisitar o relatório de impacto algorítmico, nos termos do art. 5º, §3º.

4.2. Oportunidades: Advocacia estratégica e atuação como agente de fiscalização tecnológica

Apesar dos riscos, a Resolução oferece portas inéditas de atuação estratégica para a advocacia, inclusive como agente fiscalizador do uso de tecnologias públicas. Alguns dos principais pontos de destaque são:

  • Acesso institucionalizado aos relatórios de impacto e auditoria (art. 14, §2º e art. 12, VIII): escritórios, advogados e entidades representativas poderão monitorar o comportamento dos sistemas de IA, detectando falhas, enviesamentos e abusos;
  • Atuação preventiva e consultiva em matéria de proteção de dados e ética tecnológica, especialmente para clientes que tenham seus dados sensíveis utilizados nos sistemas (art. 7º, 11 e art. 26);
  • Possibilidade de atuação judicial e extrajudicial para impugnação de soluções de IA, com base nos princípios da LGPD, nos arts. 20 e 21 da Lei nº 13.709/2018 (direito à revisão de decisões automatizadas), e nas cláusulas de vedação expressas da própria Resolução (art. 10).

Nesse cenário, surge a figura do advogado como analista de risco algorítmico: um profissional capaz de questionar a estrutura e os efeitos de sistemas automatizados que influenciem o julgamento de seu cliente. Tal papel exigirá, contudo, nova formação técnica, com conhecimentos em:

  • Direito Digital e Proteção de Dados;
  • Governança de IA e explicabilidade algorítmica;
  • Linguagem técnica de contratos de software público;
  • Letramento estatístico básico para análise de relatórios técnicos.

4.3. Mudança na lógica da motivação e revisão das decisões judiciais

A Resolução permite que os magistrados utilizem IA generativa para auxílio à redação de decisões (art. 19, §6º), desde que o conteúdo final seja revisado e assumido pelo julgador. O uso, entretanto, pode ou não ser informado no texto da decisão, a critério do signatário.

Para a advocacia, isso implica:

  • Dificuldade de reconstrução da cadeia motivacional, caso o uso da IA não seja declarado;
  • Potencial argumentativo para invocar nulidade da decisão, com base na ausência de motivação autêntica e humana;
  • Necessidade de solicitar, via incidente processual ou requerimento fundamentado, o registro da utilização da IA — conforme previsto no art. 21, §2º, que exige logs de uso e rótulos de identificação nos sistemas judiciais.

Esse aspecto recoloca a importância de uma nova advocacia processual crítica, que não se limita à análise do texto decisório, mas passa a investigar também as condições técnicas e procedimentais da motivação, especialmente nos casos de decisões automatizadas, padronizadas ou em massa.

4.4. A responsabilidade ética e o papel institucional da OAB

Por fim, a Resolução reforça o papel institucional da OAB como guardiã dos direitos fundamentais no ecossistema digital do Judiciário. Sua legitimidade para peticionar ao Comitê Nacional de IA, acessar relatórios técnicos e participar de consultas públicas configura uma nova missão institucional: a vigilância algorítmica e a defesa da democracia digital no processo.

Cabe à OAB, nesse novo contexto, atuar de forma ativa e permanente na:

  • Elaboração de pareceres técnicos sobre soluções de IA judiciais;
  • Formação de comissões de acompanhamento da IA na justiça;
  • Criação de núcleos de apoio para advogados que enfrentem decisões influenciadas por sistemas automatizados.

5. Riscos Sistêmicos e Salvaguardas Institucionais: Da Prevenção à Governança Algorítmica

A introdução da inteligência artificial no Judiciário não representa apenas um avanço técnico. Trata-se de uma reconfiguração sensível do funcionamento institucional da justiça, que envolve riscos de múltiplas ordens: jurídicos, éticos, tecnológicos e políticos. A Resolução CNJ nº 615/2025, ao reconhecer esse cenário, estrutura um arcabouço de salvaguardas regulatórias voltadas à prevenção de abusos, mitigação de danos e contenção de externalidades negativas, em especial aquelas associadas à erosão de direitos fundamentais, à opacidade algorítmica e à concentração de poder computacional.

5.1. Risco de discriminação algorítmica e vieses históricos

Um dos maiores riscos sistêmicos apontados na literatura sobre IA é a reprodução de discriminações estruturais e padrões de preconceito codificados nos dados históricos que alimentam os sistemas de aprendizado de máquina. No contexto judicial, isso pode se manifestar de forma particularmente grave em áreas como:

  • Direito penal (ex: predição de reincidência);
  • Direito de família (ex: julgamentos enviesados por gênero);
  • Direito do trabalho (ex: ranqueamentos automatizados de pleitos por “provabilidade”).

A Resolução responde a esse risco com normas de prevenção e correção de vieses discriminatórios (arts. 8º e 13, VI), que incluem:

  • Auditorias contínuas;
  • Validação de dados representativos;
  • Suspensão ou descontinuidade de sistemas que apresentem discriminação não corrigível (art. 8º, §3º).

O tratamento do viés é, portanto, institucionalizado como um requisito de conformidade jurídica — e não apenas uma questão técnica — com base nos princípios da igualdade e da dignidade humana.

5.2. Risco de opacidade decisória e esvaziamento da motivação judicial

O uso de IA em apoio à elaboração de decisões judiciais pode induzir o magistrado a uma dependência cognitiva não transparente. A Resolução procura conter esse fenômeno por meio das exigências de:

  • Supervisão humana efetiva (arts. 2º, V e 3º, VII);
  • Explicabilidade e contestabilidade (art. 4º, XVIII e XIX);
  • Registro automatizado de uso de IA nos sistemas (art. 21, §2º).

Contudo, ainda persiste o risco de motivações automatizadas genéricas, com baixo grau de densidade argumentativa, especialmente em varas com alta carga processual. Esse fenômeno compromete:

  • O controle recursal da decisão;
  • A legitimidade pública do Poder Judiciário;
  • A própria confiança na imparcialidade da jurisdição.

Por isso, a Resolução recomenda, mas não impõe, que o uso de IA seja indicado no corpo da decisão (art. 19, §6º), o que enfraquece a transparência comunicacional com o jurisdicionado e poderá ser alvo de futuras revisões normativas.

5.3. Risco de dependência tecnológica e captura algorítmica

A aquisição de soluções privadas de IA — muitas vezes oferecidas por grandes corporações tecnológicas — cria o risco de dependência técnica e institucional do Poder Judiciário em relação a fornecedores externos. Esse risco, conhecido como vendor lock-in, pode comprometer:

  • A soberania jurisdicional;
  • A confidencialidade de dados sensíveis;
  • A governança autônoma das decisões judiciais.

A Resolução tenta mitigar esse risco por meio de exigências contratuais e regulatórias (arts. 20 e 22), como:

  • Cláusulas de proteção de dados e propriedade intelectual;
  • Vedação ao uso de dados sigilosos por sistemas privados sem anonimização;
  • Preferência por modelos open source e interoperáveis (art. 12, V).

Além disso, impõe que empresas estrangeiras respeitem integralmente decisões judiciais brasileiras (art. 16, §3º), sob pena de sanções contratuais e descredenciamento. Trata-se de um avanço importante, mas que dependerá da eficácia prática da fiscalização contratual e do poder de barganha institucional dos tribunais.

5.4. Risco de fragilização da segurança da informação e violação à LGPD

Com a centralização de grandes volumes de dados e o uso de ferramentas de IA conectadas em rede, cresce exponencialmente o risco de:

  • Vazamentos de informações sensíveis;
  • Acessos não autorizados a dados protegidos por segredo de justiça;
  • Utilização indevida de dados pessoais para treinar modelos comerciais.

A Resolução trata esse risco com detalhamento técnico notável, exigindo:

  • Criptografia, anonimização e segregação de ambientes (arts. 27 a 31);
  • Conformidade com a LGPD, a ISO/IEC 27000 e padrões do NIST;
  • Governança de dados e curadoria estatística, com armazenamento controlado e eliminação segura dos datasets desnecessários (art. 26, §4º).

Além disso, exige plena rastreabilidade e versionamento dos dados, criando as condições técnicas para que eventual violação possa ser auditada e responsabilizada.

5.5. Salvaguardas institucionais: o papel do Comitê Nacional de IA do Judiciário

A Resolução institui um modelo inovador de governança descentralizada e colaborativa, centrado no Comitê Nacional de Inteligência Artificial do Judiciário (arts. 15 e 16), composto por:

  • Representantes do CNJ, da magistratura, da OAB, do MP, da Defensoria e da sociedade civil;
  • Com atribuições de reclassificação de risco, edição de protocolos técnicos, análise de descontinuidade de sistemas e proposição de ajustes normativos.

Esse modelo de governança pode ser comparado aos “ethics boards” presentes em regulações estrangeiras (como o AI Ethics Board europeu), e representa um avanço democrático na regulação da tecnologia pública.

6. Conclusão

A Resolução CNJ nº 615/2025 representa um marco regulatório robusto para a incorporação da inteligência artificial no Poder Judiciário, buscando equilibrar inovação tecnológica com os pilares do devido processo legal e dos direitos fundamentais. Ao estruturar diretrizes claras de governança, risco e transparência, o CNJ posiciona o Judiciário brasileiro na vanguarda do controle ético da IA pública.

Ainda assim, sua eficácia dependerá de uma implementação diligente pelos tribunais, de uma advocacia tecnicamente preparada e de uma cultura institucional comprometida com a supervisão humana qualificada. Para a advocacia, o cenário impõe desafios — como o enfrentamento da opacidade algorítmica — mas também oportunidades estratégicas de atuação e fiscalização.

Mais do que um avanço técnico, trata-se de uma transição paradigmática que exige vigilância constante, formação multidisciplinar e o compromisso contínuo com uma justiça que permaneça acessível, equitativa e essencialmente humana.

Referências Bibliográficas (exemplo)

  • BRASIL. Conselho Nacional de Justiça. Resolução nº 615/2025.
  • Constituição da República Federativa do Brasil de 1988.
  • BRASIL. Lei Geral de Proteção de Dados Pessoais (LGPD) – Lei nº 13.709/2018.
  • AI Act – Parlamento Europeu, 2024.
  • CAVALCANTI, G. “O Devido Processo Algorítmico”. Revista Brasileira de Direito Processual, 2023.
  • SOUTO, L. M. “Transparência Algorítmica no Poder Judiciário”. Boletim IBPD, 2024.

Veja todas as notícias