Advocacia, Inteligência Artificial e a Responsabilidade Profissional: o que aprendemos com o caso Ayinde?
Em 6 de junho de 2025, a Justiça britânica proferiu uma decisão contundente nos casos Ayinde v Haringey e Al-Haroun v Qatar National Bank, trazendo à tona uma questão crítica para a advocacia moderna: o uso de ferramentas de IA generativa (como o ChatGPT) na elaboração de peças jurídicas — e os riscos éticos e legais que isso implica.
Dois advogados foram levados ao tribunal por apresentarem argumentos jurídicos embasados em jurisprudências inexistentes, geradas por IA. A corte considerou o comportamento não apenas negligente, mas potencialmente contempt of court (desacato). O julgamento reconheceu que, embora a IA seja uma ferramenta poderosa, ela não substitui o crivo profissional e ético exigido de cada advogado.
O ponto central? A IA pode apoiar o trabalho jurídico, mas não exime a responsabilidade do profissional pelo conteúdo apresentado. Citando o julgamento:
“Há sérias implicações para a administração da justiça e a confiança pública no sistema judicial se a IA for usada de maneira inadequada.”
Esse caso serve de alerta para toda a advocacia: é fundamental conhecer os limites das ferramentas de IA, validar qualquer informação gerada e manter a integridade profissional acima de tudo.
Em um mundo cada vez mais automatizado, cabe ao advogado garantir que a tecnologia seja usada como aliada — e não como atalho.
17 junho 2025
16 junho 2025
23 maio 2025
Solicite contato conosco