A inteligência artificial (IA) desempenha um papel cada vez mais proeminente na sociedade. Considerando que a União Europeia, concretamente o Parlamento Europeu e o Conselho da União Europeia, no transato dia 14 de junho de 2023 aprovado as primeiras alterações à proposta de Regulamento da Inteligência Artificial, onde se destacou a proibição total de uso de Inteligência Artificial em algumas matérias, a advogada estagiária Carolina Martins e José Pinto de Almeida, advogado e sócio do nosso escritório, debruçaram-se acerca da questão de saber: Que alcance terão as mencionadas proibições no campo da Justiça?
A inteligência artificial (IA) está desempenhar um papel cada vez mais importante no nosso quotidiano, começando naturalmente a sentir-se os seus reflexos no âmbito do direito e da justiça.
A União Europeia (UE) tem estado ativa em relação à regulamentação e orientação da IA para garantir que o seu desenvolvimento e uso ocorram de maneira ética, segura, transparente e benéfica para os cidadãos e a sociedade em geral. A abordagem da UE em relação à IA visa equilibrar a promoção da inovação e do crescimento econômico com a proteção dos valores e direitos fundamentais dos cidadãos europeus.
Em dezembro de 2020, a Comissão Europeia apresentou uma proposta de Regulamento da IA, que agora está em processo de discussão e revisão pelo Parlamento Europeu e pelo Conselho da União Europeia. Tem havido discussões significativas e ajustes na legislação para abordar preocupações específicas e equilibrar a inovação com a proteção dos direitos dos cidadãos.
A mais recente etapa deste processo legislativo ocorreu no transacto dia 14 de Junho de 2023, tendo o Parlamento Europeu aprovado as suas alterações à proposta de regulamento, dando-se agora destaque às matérias que Parlamento Europeu pretende uma proibição total de uso de IA.
Estas novas regras, começam a dar elementos mais concretos para que se possa balizar e estabilizar o quadro legal do desenvolvimento que tem surgido a nível mundial na área da aplicação da IA nos Tribunais.
Por exemplo, no Brasil, a Corte Constitucional Brasileira, no Supremo Tribunal Federal (STF), utiliza o robô de inteligência artificial chamado VICTOR que analisa as petições de recursos extraordinários que chegam ao STF com o objetivo de identificar se se tratam de temas que já foram decididos pela Corte, para fins de aplicação da solução ao caso concreto, com a devolução do processo ao Tribunal de origem ou a rejeição do recurso extraordinário.
Na Estónia, tem sido utilizado um juiz-robô para decidir determinados conflitos judiciais em matéria contratual cujo valor não ultrapasse 7.000,00€. Demandante e demandado enviam por meio eletrônico os documentos que acham relevantes para a solução da causa e o juiz-robô dá a decisão, sem necessidade da presença das partes, existindo, no entanto, a faculdade de a decisão ser revista por um Juiz.
Se estes dois exemplos parecem adaptar-se às futuras regra europeias, já assim não o será com a realidade que nos chega dos Estados Unidos da América.
Este país tem utilizado três sistemas principais: o COMPAS, o PSA e LSI-R. Apesar de utilizados por todos os Estados, apresentam, no entanto, variações a nível das diferentes jurisdições. O objetivo destes sistemas é avaliar o risco de reincidência dos arguidos, cujos resultados são utilizados para a fixação da sentença criminais. O COMPAS, avalia variáveis relativas a cinco áreas principais: envolvimento criminal, relacionamentos e estilo de vida, personalidade e atitudes, circunstâncias familiares e exclusão social. Por sua vez, o LSI-R utiliza também informação abrangendo um leque alargado de fatores, desde os antecedentes criminais aos padrões de personalidade. Por fim, o PSA analisa um conjunto de parâmetros mais restrito, tendo apenas em consideração a idade e antecedentes criminais do arguido.
Quanto a este último é nítido o confronto/conflito entre estes sistemas utilizados nos EUA, de avaliação do risco de reincidência com vista à sua utilização para fixar sentença e a regra implementada na proposta de Regulamento da UE, que considera como prática proibida relativas a sistemas de IA, a utilização de sistemas de avaliação de risco de pessoas baseados na definição de perfil e comportamento criminoso passado.
Sabemos que a proposta de regulamento que aqui nos ocupou visa apenas fixar regras de responsabilidade civil extracontratual aplicáveis à IA, não sendo por isso diretamente aplicável à tarefa essencial de administração da justiça que cabe aos estados.
Mas, precisamente por se tratar de uma tarefa do Estado que constitui parte de um direito essencial das pessoas, atrevemo-nos a dizer que será sempre muito difícil a um estado-membro a utilização de IA na administração da justiça em termos que não sejam permitidos nas demais áreas da sociedade.
A verdade é que tem havido avanços significativos nas negociações e todos os intervenientes referem a vontade na obtenção de um rápido consenso, refletindo o sentimento geral de que é necessária e urgente a publicação de regras que norteiem o desenvolvimento da IA;
A justiça não ficará certamente incólume a esta revolução e encontrará os melhores caminhos para a sua utilização, dentro dos limites da lei.