O artigo de Thomas Friedman, publicado no The New York Times no último dia 7 de abril, parte de uma premissa que dispensa dramatização retórica: os novos modelos de inteligência artificial deixaram de ser meros instrumentos de redação, pesquisa e automação para se aproximar de um patamar em que conseguem localizar, compreender e explorar vulnerabilidades críticas em sistemas digitais com velocidade e sofisticação inéditas.
A preocupação não é meramente especulativa. No início de abril, a Anthropic anunciou o Claude Mythos Preview, modelo de acesso restrito inserido no Project Glasswing. Segundo a empresa, durante os testes o sistema demonstrou capacidade de identificar e explorar falhas em grandes sistemas operacionais e navegadores, razão pela qual sua disponibilização ampla foi, ao menos por ora, contida.
Se essa descrição se confirmar, o impacto sobre o universo jurídico é imediato e profundo. Até aqui, o debate sobre IA no Direito concentrou-se na produtividade: elaboração de minutas, revisão contratual, pesquisa jurisprudencial e automação de fluxos. O ponto novo é outro. Não se trata apenas de escrever melhor ou mais rápido, mas de uma tecnologia capaz de tensionar a própria infraestrutura de confiança sobre a qual repousa a atividade jurídica contemporânea.
Escritórios de advocacia, tribunais, ministérios públicos, procuradorias, delegacias, cartórios e plataformas de processo eletrônico dependem integralmente de software. Se a IA amplia simultaneamente a capacidade defensiva de encontrar falhas e a capacidade ofensiva de explorá-las, o Direito deixa de ser apenas usuário da transformação tecnológica e passa a figurar entre seus alvos estruturais.
Para os escritórios de advocacia, a primeira consequência é o deslocamento do risco jurídico-tecnológico para o centro da gestão. A advocacia lida com ativos de altíssimo valor: estratégias processuais, acordos sigilosos, dados sensíveis, pareceres protegidos por confidencialidade e documentos empresariais críticos. Em um ambiente no qual modelos de IA identificam vulnerabilidades em escala superior à humana, a proteção do sigilo profissional deixa de ser apenas um imperativo ético ou normativo e passa a exigir arquitetura tecnológica robusta, governança de acessos, segmentação de redes, auditoria contínua e protocolos efetivos de resposta a incidentes.
O dever de confidencialidade, portanto, transforma-se também em dever de ciber-resiliência.
Essa mudança redefine a própria noção de diligência profissional. Antes, bastava contratar softwares confiáveis, manter antivírus e backups e confiar na reputação dos fornecedores. Agora, diante da possibilidade de identificação massiva de vulnerabilidades críticas, o padrão de cuidado se eleva. Passa a incluir due diligence tecnológica rigorosa, revisão contratual com fornecedores de nuvem, autenticação forte, controle granular de permissões, políticas claras sobre uso de IA generativa e treinamento contínuo das equipes.
A omissão, nesse contexto, deixa de ser mera fragilidade operacional e pode configurar falha de governança com repercussões civis, regulatórias e reputacionais.
Há, ainda, um efeito menos visível, mas profundamente transformador: a redefinição da competição entre escritórios. Modelos avançados ampliam significativamente a capacidade de análise contratual, investigação patrimonial, revisão probatória e identificação de inconsistências. Contudo, essa vantagem tende a ser distribuída de forma desigual. Escritórios com maior maturidade tecnológica operarão em outro patamar de eficiência e segurança. Excelência jurídica e maturidade cibernética deixam de ser dimensões separadas.
No campo da litigância, o impacto é ambivalente. As ferramentas fortalecem a advocacia na análise massiva de dados e na antecipação de estratégias adversárias, mas também potencializam ataques sofisticados, fraudes documentais, phishing direcionado e comprometimento de cadeias de custódia digitais. O problema jurídico deixa de ser apenas como utilizar IA para melhor argumentação e passa a ser como preservar a autenticidade, integridade e confiabilidade da prova.
Para a magistratura, o desafio é ainda mais sensível, pois envolve a própria legitimidade institucional. Tribunais dependem de sistemas eletrônicos para praticamente todos os atos processuais. Um comprometimento relevante dessa infraestrutura não é apenas um incidente técnico: é uma ameaça direta ao devido processo legal, ao contraditório e à confiança pública na jurisdição.
Nesse cenário, o papel do juiz também se transforma. A compreensão de temas como integridade de logs, rastreabilidade documental e confiabilidade de sistemas automatizados deixa de ser periférica. Não se trata de converter magistrados em engenheiros, mas de reconhecer que a formação jurídica tradicional, isoladamente, já não é suficiente para lidar com litígios cuja verdade processual depende de ambientes computacionais complexos.
Há, ainda, uma dimensão adicional: a governança do uso judicial da própria IA. O emprego dessas ferramentas para organizar autos ou sugerir minutas exige cautela institucional. Eficiência não pode significar terceirização indevida da decisão. A fundamentação judicial permanece como ato humano, exigindo controle consciente e transparência.
Sob perspectiva mais ampla, o que se observa é uma mutação estrutural: a cibersegurança deixa de ser um tema técnico e passa a integrar o núcleo das garantias do Estado de Direito. Acesso à justiça, sigilo profissional, integridade da prova e confiança institucional passam a depender diretamente da segurança dos sistemas digitais.
Se a IA reduz drasticamente o custo de descoberta de falhas, eleva também o patamar mínimo de prevenção exigível.
Em termos práticos, escritórios precisarão revisar políticas de uso de IA, classificar informações por sensibilidade, restringir o uso de ferramentas externas para dados confidenciais, fortalecer criptografia e tratar segurança como tema estratégico. Tribunais, por sua vez, deverão equilibrar inovação e controle, com auditorias, segmentação de sistemas e protocolos rigorosos para ambientes críticos.
A lógica é inequívoca: a vantagem tecnológica já não está apenas em utilizar IA, mas em utilizá-la sem comprometer a confiabilidade do ecossistema institucional.
No fundo, o alerta não é sobre o fascínio da superinteligência, mas sobre a fragilidade das estruturas que imaginávamos sólidas. A questão central não é a chegada de uma IA mais poderosa, mas a velocidade com que ela torna obsoletos os padrões tradicionais de segurança e diligência.
Para a advocacia, competência técnica passará a incluir capacidade real de proteção informacional. Para a magistratura, a legitimidade dependerá da segurança e auditabilidade de sua infraestrutura.
Na era da IA supercapaz, proteger o sistema deixa de ser um aspecto acessório da técnica e passa a integrar a própria garantia de justiça.
*Marcelo Aith é advogado criminalista. Doutorando Estado de Derecho y Gobernanza Global pela Universidad de Salamanca - ESP. Mestre em Direito Penal pela PUC-SP. Latin Legum Magister (LL.M) em Direito Penal Econômico pelo Instituto Brasileiro de Ensino e Pesquisa – IDP. Especialista em Blanqueo de Capitales pela Universidad de Salamanca.

