Professor convidado do Algolatr.IA, Dr. Dierle Nunes, publica artigo de opinião sobre supervisão humana e decisões de IA (Conjur)



O artigo intitulado "A supervisão humana das decisões de inteligência artificial reduz os riscos?" escrito pelo professor Dr. Dierle Nunes (Algolatr.IA - Puc/Minas) faz uma análise de como a IA (Inteligência Artificial) pode mudar os rumos através de seu uso nas tomadas de decisões sensíveis no campo jurídico.


Um dos alertas do professor frisa que, “o uso da IA nos tribunais 'despreza inúmeros fatores': o primeiro diz respeito à prática de preconceito racial cometidas através do uso do “Compas (Perfil Corretivo de Gerenciamento de Ofensores para Sanções Alternativas), software de justiça criminal (oferecido pela Northpointe Inc.) que usa algoritmos, estatísticas e o histórico para realizar uma avaliação de risco de detentos nos Estados Unidos”, e “prejudicam pessoas pretas e latinas”. O segundo trata da operação humana no comando das máquinas, conforme prevê a resolução do 332 do CNJ. Em sua opinião, “mesmo que humanos recebam um treinamento significativo de como operar a IA se torna muito complexo”.


Segundo o professor,  a IA direciona os seres humanos a automatizar as tomadas de decisões: “Se isto já ocorre em relação a questões cotidianas, como anuência irrefletida ao trajeto fornecido pelo Waze como o melhor, coloca-se em pauta se juízes e assessores humanos refletiriam a cada resultado ofertado por um modelo de IA para apuração de sua correção”.


Assevera ainda que “tal percepção é inclusive comprovada nas avaliações de risco implantadas no sistema de Justiça Criminal dos EUA, no qual juízes, por preconceito racial, usaram os resultados de previsões de risco mais alto sobre réus negros e mais baixas sobre réus brancos".


Por fim, conclui que “a atribuição de decisões sensíveis às máquinas deve ser absorvida com bastante cuidado e que a crença na atribuição de controle pela supervisão humana não é suficiente e deve ser objeto de um monitoramento rigoroso na implementação de automação decisória”, para que “modelos precisos não sejam utilizados com o intuito de agravar a situação de alguns grupos que já sofrem preconceito.”


Para ter acesso ao texto completo, clique aqui.


Comentários