IA na advocacia exige verificação de fontes, decide tribunal colombiano

IA na advocacia exige verificação de fontes, decide tribunal colombiano

Este conteúdo foi publicado pelo IODA e é de autoria de Oscar Cidri, em 05.03.2026.
Acesse: https://ioda.org.br/publicacoes/jurisprudencia-internacional/ia-advocacia-limites/

Uso acrítico de Inteligência Artificial generativa na advocacia leva à sanção disciplinar na Colômbia e estabelece disposições jurídicas para o exercício profissional

A crescente incorporação de ferramentas de Inteligência Artificial generativa na prática jurídica contemporânea tem suscitado debates relevantes sobre os limites éticos, técnicos e jurídicos de sua utilização no exercício da advocacia.

Nesse contexto, a Corte Suprema de Justiça da Colômbia , por meio da Providência AC739-2026 , proferida pela Sala de Casa Civil, Agrária e Rural, distribuiu um importante precedente ao sancionar um advogado que apresentou peça processual contendo restrições jurisprudenciais inexistentes e transcrições normativas incorretas, cuja origem foi atribuída ao uso acrítico de um sistema de Inteligência Artificial generativa.

Corte Suprema da Colômbia sanciona advogado por uso acrítico de IA.

A decisão assume particular relevância no cenário internacional ao delimitar o padrão de diligência profissional exigível aos advogados que utilizam tecnologias baseadas em modelos de linguagem , reafirmando que o dever de verificação das fontes jurídicas constituições obrigações indeclináveis ​​do profissional do direito.

O caso teve origem na sustentação de um recurso extraordinário de revisão, apresentado perante a Corte Suprema, no qual o advogado invocou diversas normas processuais e precedentes jurisprudenciais comprovados pela própria Corte.

Durante a análise inicial da demanda, o tribunal constatou inconsistências relevantes nas referências normativas e demonstrações jurisprudenciais. Em particular, transferiu-se que o escrito atribuía conteúdo jurídico incompatível com os dispositivos do Código Geral do Processo, bem como mencionava decisões de casamento que não constavam em qualquer base oficial de importação.

A Relatoria da Corte informou posteriormente que nenhuma das decisões pertinentes foi registrada nos repositórios institucionais da própria Corte Suprema, o que evidenciava a inexistência de material das referências invocadas.

Precedente colombiano redefine dever de diligência na advocacia digital

Diante dessas irregularidades, o tribunal concedeu prazo para que o advogado apresente esclarecimentos e proceda à correção das inconsistências identificadas.

No entanto, a tentativa de subsanação agravou a situação processual, pois o novo memorial incluiu outras decisões igualmente inexistentes e modificou o conteúdo de dispositivos legais, atribuindo-lhes formulações normativas que não correspondiam ao texto autêntico da legislação colombiana.

Posteriormente, diante da comprovação técnica da inexistência das referências mencionadas, o próprio advogado descobriu que as imprecisões tiveram resultado da utilização de um sistema de Inteligência Artificial empregado para agilizar a elaboração de seus escritos processuais.

Modelos de Linguagem de Grande Escala (LLM) e advocacia: decisão judicial alerta para riscos na prática jurídica

A Corte Suprema, ao analisar o caso, concluiu que o episódio não poderia ser tratado como uma mera falha formal na elaboração da peça processual, mas como manifestação de um aspecto mais amplo relacionado ao uso de modelos de linguagem de grande escala (Large Language Models – LLM) no âmbito da prática jurídica.

Em extensa fundamentação técnica, o tribunal explicou que tais sistemas não operam por meio de recuperação direta de informações jurídicas autênticas, como ocorre em bancos de dados especializados, mas produzidos texto a partir de predições probabilísticas baseadas em padrões linguísticos aprendidos durante o treinamento do modelo.

Em razão dessa arquitetura técnica, tais sistemas podem gerar respostas linguisticamente coerentes e formalmente plausíveis, embora desprovidas de correspondência factual ou jurídica com a realidade.

Alucinações da Inteligência Artificial entram no debate judicial e expõem riscos à prática jurídica.

Nesse contexto, a decisão dedica especial atenção ao denominado “alucinação” dos modelos de linguagem , expressão técnica utilizada para designar a geração de conteúdo falso ou inexistente com aparência de veracidade. Segundo a Corte, essas alucinações assumem diferentes modalidades: desde a fabricação integral de precedentes e normas inexistentes até a alteração parcial de fontes jurídicas reais, mediante alteração de seu conteúdo ou atribuição de significados que não se encontrem presentes no texto original.

A particularidade dessa ocorrência no campo jurídico corre da natureza própria das fontes do direito. Diferentemente de outros domínios do conhecimento, em que as referências servem apenas como prova ou suporte argumentativo, no direito a norma ou o precedente citado na constituição o próprio fundamento normativo da decisão judicial.

Consequentemente, a introdução de fontes inexistentes no debate processual implica a inserção de fundamentos jurídicos fictícios, capaz de comprometer a integridade do processo decisório.

Pseudo-direito gerado por IA leva à sanção disciplinar na Colômbia.

A Corte qualificou esse específico como a produção de “pseudo-direito” , isto é, conteúdo que reproduz fielmente a forma externa das fontes jurídicas — incluindo números de processo, dados, identificação de magistrados e linguagem técnico-jurídica — mas que carece de qualquer correspondência com o ordenamento jurídico real.

O risco institucional dessa prática, segundo o tribunal, é especialmente elevado no contexto do processo judicial, cuja dinâmica adversarial depende da confiança recíproca entre magistrados, advogados e partes quanto às lesões das fontes jurídicas invocadas. Quando precedentes fictícios ou normas inexistentes são introduzidos no processo, rompe-se essa definição fundamental de confiança institucional, podendo gerar distorções relevantes na formação do convencimento judicial.

Uso da IA por advogado deve ser ético na citação de fontes jurídicas.

A partir dessa análise, a Corte passou a examinar o padrão de conduta exigível ao advogado no momento da citação de fontes jurídicas. O tribunal destacou que citar uma norma ou precedente não constitui mero ato de reprodução textual, mas implica uma afirmação implícita de que tal fonte integra validamente o ordenamento jurídico e possui o conteúdo que lhe é atribuído no memorial apresentado.

Dessa forma, a invocação de fontes jurídicas pressupõe um compromisso profissional com a veracidade e essas questões. Tal compromisso, segundo a Corte, não se limita à ausência de intenção dolosa de falso ou direito, mas envolve também um dever positivo de verificação, consistente na obrigação de verificar previamente a existência e fidelidade das fontes referidas em repositórios oficiais ou bases confidenciais de legislação e jurisdição.

Lealdade processual na era da Inteligência Artificial reforça o dever de verificação.

Essa obrigação de verificação foi considerada pela Corte como elemento inerente ao próprio estatuto jurídico da profissão de advogado. A decisão ressalta que o exercício da advocacia, conforme previsto na legislação colombiana, constitui função social voltada para a colaboração com a administração da justiça, devendo ser exercido com lealdade processual, diligência profissional e boa-fé objetiva.

Dessa forma, a omissão na verificação de fontes jurídicas, especialmente quando se trata de referências facilmente verificáveis ​​em repositórios públicos, configura violação ao padrão mínimo de diligência exigida do profissional de direito.

Uso profissional com elaboração de peças processuais por IA Generativa é responsabilidade do advogado.

Outro ponto central da decisão consiste na afirmação da indelegabilidade da responsabilidade profissional pelo conteúdo das peças processuais.

A Corte enfatizou que a autoria juridicamente relevante de um memorial corresponde ao advogado que o apresenta em justiça, independentemente da forma como o documento foi elaborado.

Assim, a utilização de auxiliares humanos, estagiários ou sistemas de Inteligência Artificial não altera a titularidade da responsabilidade pelo conteúdo apresentado ao tribunal. O advogado pode recorrer a ferramentas tecnológicas para auxiliar na preparação de seus escritos, mas permanece responsável por garantir a proteção das fontes jurídicas invocadas e a correção das informações justas ao direito.

A decisão também introduz uma importante distinção conceitual entre o uso legítimo e o uso negligente da Inteligência Artificial na prática jurídica. O tribunal admite que os sistemas de IA generativa podem representar instrumentos úteis para a organização de informações, síntese de documentos ou elaboração preliminar de textos jurídicos.

Entretanto, a utilização dessas ferramentas exige controle humano específico e verificação rigorosa de seus resultados, especialmente quando o conteúdo produzido envolve normas normativas ou jurisprudenciais. A mera transposição automática de conteúdo gerado por IA para peças processuais, sem verificação independente, caracteriza comportamento profissional incompatível com os padrões de diligência exigidos pela profissão.

Nesse sentido, a Corte considerou que o comportamento do advogado analisou no caso configurou a situação próxima ao que a doutrina denomina “cegueira voluntária” . Embora não tenha sido comprovada a intenção deliberada de falso ou direito, ficou demonstrado que o profissional deixou de realizar verificações elementares que estavam plenamente ao seu alcance. Tal omissão foi considerada particularmente grave diante do fato de que o advogado persistiu no erro mesmo após ter sido formalmente anunciado pelo tribunal sobre as inconsistências detectadas em seu primeiro memorial. A persistência na utilização de fontes inexistentes, nesse contexto, evidenciou negligência profissional inescusável.

Como consequência, a Corte concluiu que a conduta do advogado configurou temeridade processual, uma forma de atuação negligente no processo judicial que viola os deveres de boa-fé e lealdade processual. Em razão disso, foi imposta multa equivalente a quinze meses mínimos legais mensais vigentes, além da determinação de envio de cópias do processo à Comissão Seccional de Disciplina Judicial de Bogotá, para eventual apuração de infrações éticas no exercício da advocacia.

A decisão da Corte Suprema colombiana se insere em uma tendência crescente no direito comparado, em que tribunais de diversas jurisdições apresentam situações semelhantes envolvendo o uso inadequado de Inteligência Artificial na elaboração de peças processuais. Casos emblemáticos registrados nos Estados Unidos, no Reino Unido e no Canadá já relataram que a utilização acrítica dessas ferramentas pode resultar na introdução de jurisdição fictícia em processos judiciais, levando aos tribunais as disposições específicas para o uso responsável da IA ​​no exercício da advocacia.

Do ponto de vista jurídico-institucional, o precedente colombiano assume especial relevância por afirmar de maneira explícita que a incorporação de tecnologias avançadas na prática jurídica não altera os fundamentos éticos da profissão , mas, ao contrário, pode exigir níveis ainda mais elevados de diligência profissional. Em um contexto em que os sistemas de IA são capazes de produzir textos juridicamente sofisticados e aparentemente plausíveis, o papel crítico do advogado como garantia da veracidade e prejuízo das fontes jurídicas torna-se ainda mais central para a preservação da integridade do sistema de justiça.

Assim, a decisão reafirma um princípio fundamental para a advocacia na era da Inteligência Artificial: embora a tecnologia possa auxiliar na produção do discurso jurídico, a responsabilidade pela validade do direito invocado permanece sempre humana e indeclinável.

LUTAMOS COLETIVAMENTE PELOS SEUS DIREITOS INDIVIDUAIS!

Compartilhe essa publicação: