
Por DOBSON LOBO
A polícia do Reino Unido está divulgando a inteligência artificial como uma solução para os problemas da aplicação da lei moderna, assegurando aos pessimistas que o uso de algoritmos “pré-crime” será restrito a oferecer “aconselhamento” a prováveis infratores.
Sugerindo que cortes orçamentários tornaram a mera polícia humana incapaz de realizar seus trabalhos sem ajuda cibernética, o líder do projeto Iain Donnelly afirma que trabalhar com um sistema de inteligência artificial permitirá que a força faça mais com menos. Ele insiste que a Solução Nacional de Análise de Dados, como é chamada, terá como alvo somente indivíduos que já são conhecidos por terem tendências criminais, farejando prováveis criminosos para desviá-los com “ intervenções ” terapêuticas , incluindo indivíduos que são parados e revistados, mas nunca presos ou acusados. .
>>> Ajude a Mídia Independente com Apenas R$1,90
Donnelly afirma que o programa não foi projetado para “ prender preventivamente ” a ninguém, mas para fornecer “ apoio da saúde local ou assistentes sociais”, dando o exemplo de um indivíduo com histórico de problemas de saúde mental sendo sinalizado como provável infrator violento, então contatado pelos serviços sociais. Dado que um caso mental violento quase certamente reagiria negativamente a ser contatado do nada por um misterioso assistente social - e que uma história de problemas de saúde mental não é em si mesma criminosa - Donnelly foi sensato em pôr fim ao seu exemplo.
“ Intervenções ” serão oferecidas apenas a potenciais infratores, mas o NDAS afirma ser capaz de escolher suas vítimas também. Ele combina estatísticas de vários órgãos com aprendizagem de máquina AI para avaliar o risco de um indivíduo de cometer ou ser vítima de arma ou uma faca crime, ou “ vítima de escravidão moderna ”, de acordo com documentos obtidos pelo New Scientist.
O NDAS isolou quase 1.400 " indicadores " de criminalidade futura em uma amostra populacional de cinco milhões, analisando mais de um terabyte de dados de bancos de dados policiais locais e nacionais, e concentrou-se em 30 marcadores particularmente eficazes, incluindo o número de crimes cometidos por pessoas em um grupo social, o número de crimes cometidos “ com a ajuda de outros ” e a idade de um indivíduo no primeiro delito. Estes dados foram então usados para prever quando um indivíduo já conhecido pela polícia estava planejando reincidir, e atribuiu uma “ pontuação de risco ” de acordo.
A Polícia de West Midlands espera começar a gerar previsões com o NDAS no início de 2019, trabalhando de mãos dadas com o Gabinete do Comissário de Informação para garantir que os regulamentos de privacidade sejam " respeitados ". Os projetistas do programa esperam vê-lo adotado em todo o Reino Unido; A Polícia Metropolitana de Londres e a Polícia da Grande Manchester também estão a bordo.
O Instituto Turing encontrou “ sérios problemas éticos ” com o NDAS, afirmando que o programa falha em reconhecer “ questões importantes ” , apesar de suas boas intenções, e que “ previsão imprecisa é uma preocupação ”. Dado que o policiamento preditivo é baseado nos padrões existentes de paragens, detenções e condenações - incluindo em indivíduos nunca considerados culpados ou mesmo acusados de um crime - só pode “ reforçar o preconceito ”, uma vez que é incapaz de expandir o grupo de suspeitos para além daqueles identificados como suspeitos por agentes humanos.
Um Minority Report mais gentil e gentil pode soar inofensivo, mas algoritmos de policiamento preditivo como o PredPol dos EUA já demonstraram um preconceito racial e de classe inerente, criando “ loops de feedback ” que ampliam os próprios preconceitos dos policiais . Dados os vieses que muitos acreditam estarem codificados no sistema de justiça criminal, é difícil ver como uma IA pode se libertar completamente dos preconceitos de seus programadores.
Via: rt
Nenhum comentário:
Postar um comentário