Publicado em:
30/10/2025
A Inteligência Artificial (IA) continua a transformar setores inteiros, e o campo jurídico não é exceção. Recentemente, um experimento realizado nos Estados Unidos colocou essa discussão no centro do debate mundial: um júri composto inteiramente por sistemas de IA foi testado em um julgamento simulado, levantando questionamentos profundos sobre ética, responsabilidade e o papel humano na Justiça.
O teste ocorreu em 24 de outubro de 2025, na Faculdade de Direito da Universidade da Carolina do Norte, e reuniu juristas, pesquisadores e estudantes para observar um cenário hipotético. Três das inteligências artificiais mais conhecidas do mercado — ChatGPT, Grok e Claude — formaram o júri responsável por deliberar sobre o caso fictício de Henry Justus, um estudante afro-estadunidense acusado de roubo.
O julgamento foi realizado sob a chamada “Lei de Justiça Criminal de IA de 2035”, criada pelos organizadores da simulação para imaginar como seria um sistema jurídico automatizado. A proposta era testar se máquinas poderiam, de fato, tomar decisões mais racionais e imparciais do que um grupo de jurados humanos, eliminando possíveis vieses sociais e cognitivos.
Durante a simulação, as IAs receberam instruções detalhadas, provas documentais, depoimentos e os argumentos da acusação e da defesa. Após analisar as informações, cada sistema apresentou seu veredicto fundamentado, que foi posteriormente comparado por um painel de professores e especialistas. A experiência, embora controlada, trouxe resultados instigantes e provocou reflexões sobre o futuro da Justiça.
Segundo Eric Muller, professor da instituição e um dos observadores do teste, o evento provocou intensos debates no painel pós-julgamento. Para ele, o desempenho técnico das IAs foi inegavelmente impressionante: elas processaram grandes volumes de informação em poucos minutos e identificaram contradições que poderiam passar despercebidas a olhos humanos. No entanto, faltou algo essencial — a empatia.
Jurados humanos não se limitam a analisar dados; eles observam expressões faciais, entonações de voz e reações emocionais das testemunhas. Já as IAs, restritas a textos e registros objetivos, não são capazes de captar essas nuances. Essa limitação torna o julgamento algorítmico frio e distante da realidade humana, especialmente em casos criminais, onde a sensibilidade é indispensável.
Outro problema identificado foi o chamado “efeito caixa-preta”, fenômeno em que não se consegue compreender completamente o raciocínio seguido pela máquina até chegar à decisão final. Mesmo que as IAs apresentassem justificativas lógicas, os especialistas não conseguiram rastrear integralmente o processo interno que levou a cada veredicto. Isso levanta uma dúvida ética central: como confiar em um julgamento que não pode ser explicado em sua totalidade?
O público, em sua maioria, reagiu com ceticismo. Muitos juristas presentes afirmaram que, embora o experimento tenha valor acadêmico, ele demonstra que a substituição de jurados humanos ainda está muito distante de se tornar uma realidade aceitável. Muller destacou que a Justiça é uma instituição “profundamente humana”, e qualquer tentativa de automatizá-la sem transparência e controle rigoroso representa um risco grave.
Apesar das críticas, o estudo trouxe aprendizados importantes e mostrou o potencial da IA como ferramenta auxiliar. Em vez de substituir jurados, ela poderia atuar como suporte técnico — ajudando a organizar provas, identificar inconsistências e comparar jurisprudências de forma rápida e precisa. Esse modelo híbrido, que combina razão algorítmica e julgamento humano, é apontado por especialistas como o caminho mais viável.
O uso da IA na área jurídica, aliás, já é uma realidade consolidada. Um relatório da Thomson Reuters revelou que 77% dos profissionais do Direito utilizam ferramentas de IA para revisar documentos e detectar inconsistências, enquanto 74% recorrem à tecnologia para realizar pesquisas legais e criar resumos de processos. Além disso, escritórios de advocacia têm aplicado análises preditivas para estimar probabilidades de vitória em ações, baseando-se em dados históricos.
Nos Estados Unidos, algumas plataformas também simulam o comportamento de jurados humanos com base em dados sociológicos e históricos, ajudando advogados a prever reações do público a determinados argumentos. Embora esses sistemas não tenham poder decisório, eles oferecem uma prévia de como algoritmos podem auxiliar no processo jurídico.
No fim, o experimento do júri formado por IA não pretendeu substituir o sistema humano, mas provocar reflexão. Ele deixa claro que a Inteligência Artificial pode contribuir para tornar a Justiça mais eficiente, analítica e acessível, mas jamais deve prescindir de princípios como transparência, empatia e responsabilidade ética.
Em resumo, a experiência demonstra que o futuro da Justiça não está em escolher entre humanos ou máquinas, mas em aprender a equilibrar ambos. O caminho mais seguro é o da coexistência: tecnologia e humanidade lado a lado, com as decisões finais sempre pertencendo às pessoas — porque, no fim, julgar é um ato que exige não apenas lógica, mas também consciência.