Sentenças automatizadas: uma realidade próxima?
Autor: *Jennifer ManfrinNo dia 14 de maio, uma manifestação do ministro Luís Roberto Barroso sobre a rápida evolução tecnológica que vem ocorrendo nos tribunais ganhou destaque. Nas palavras do ministro, “Em breve, tenho certeza de que teremos a inteligência artificial escrevendo a primeira sentença”.
Essa declaração surpreendeu muitos, especialmente aqueles menos familiarizados com o tema. Contudo, a verdade é que há anos os tribunais vêm utilizando sistemas de inteligência artificial (IA) para auxiliar nas atividades diárias, com resultados impressionantes. Por exemplo, o sistema Victor, em operação desde 2019, consegue realizar em 5 segundos uma tarefa que um servidor humano demoraria 44 minutos para completar.
A otimização de tarefas é notável, e os sistemas de IA têm se mostrado altamente eficazes em executar tarefas repetitivas e mecânicas, como a triagem processual. Mas será que a IA é a solução para a morosidade processual no Brasil, a partir da elaboração de sentenças judiciais, como mencionado pelo Ministro?
Não há dúvidas de que já existe tecnologia suficiente para que sistemas de IA elaborem sentenças, mas para que ela seja utilizada, muitos obstáculos significativos precisam ser ultrapassados, e acredito que o mais problemático deles diz respeito aos vieses discriminatórios. Basicamente, podemos entender que o que torna a IA tão impressionante é a sua capacidade de aprender a “pensar” sozinha, a partir das informações a qual é exposta. Essa é a sua maior qualidade e o seu maior problema.
Em 2016, a Microsoft teve uma ideia que, a princípio, foi genial: inserir no Twitter um sistema de IA para que ele aprendesse com os usuários, e com isso, entendesse melhor o público entre 18 e 24 anos. Contudo, o resultado foi desastroso, e em menos de 24h ela precisou ser retirada do ar por ter se tornado racista, sexista, xenofóbica e conspiracionista.
Infelizmente, o problema dos vieses discriminatórios com o uso da IA não se restringe às redes sociais. O sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), usado pelos tribunais dos Estados Unidos da América, é um exemplo disso. Sua principal função era ajudar juízes e agentes de condicional a avaliar a probabilidade de reincidência de réus criminais. No entanto, após a análise de mais de 10 mil casos, foi constatado que o sistema, em condições equivalentes, considerava que réus negros tinham 45% mais probabilidade de serem classificados como de alto risco de reincidência em comparação com réus brancos. Em se tratando de crimes violentos, essa probabilidade suba para 77%.
Assim, embora a ideia de utilizar IA para proferir sentenças seja animadora, é fundamental que certos passos sejam dados antes que qualquer sistema seja utilizado, como elaborar uma legislação que regulamente sua criação, prevendo mecanismos de controle e testes rigorosos para eliminar eventuais vieses discriminatórios. Afinal, como a história nos mostra, a IA também comete erros, e em casos judiciais, isso pode representar grandes prejuízos na vida de pessoas.
Jennifer Manfrin é advogada, especialista em Direito Aplicado e professora nos cursos de pós-graduação em Direito do Centro Universitário Internacional Uninter.
Autor: *Jennifer ManfrinCréditos do Fotógrafo: Pexels