Últimas Notícias

Novo Aqui? Veja Essas Vídeos

10 de maio de 2019

Polícia do Reino Unido está usando AI para tornar precrime uma realidade


Por DOBSON LOBO


Os conselhos municipais e as forças policiais do Reino Unido estão usando os dados pessoais que possuem e os algoritmos que compraram para evitar crimes contra crianças, mas há muitas coisas que poderiam dar errado com esse sistema.
Uma nova pesquisa da Universidade de Cardiff e Sky News mostra que pelo menos 53 conselhos locais do Reino Unido e 45 das forças policiais do país estão confiando fortemente em algoritmos de computador para avaliar o nível de risco de crimes contra crianças, bem como pessoas traindo benefícios. Ele levantou muitas sobrancelhas sobre as implicações éticas do método e sua eficácia, com referências ao conceito de Precrime de Philip K Dick como inevitável.

>>> Ajude a Mídia Independente com Apenas R$1,90


Os algoritmos das autoridades de TI usam os dados pessoais em sua posse para treinar o sistema de IA para prever a probabilidade de uma criança em um determinado ambiente social ser submetida a crimes, dando a cada criança uma pontuação entre 1 e 100, classificando o nível de risco contra cada criança como alto, médio ou baixo. Os resultados são então usados ​​para sinalizar aos assistentes sociais para intervenção antes que os crimes sejam cometidos. Isso não parece muito diferente do famoso sistema de crédito social que a China está construindo em escala nacional, embora sem os benefícios de empréstimos para moradia mais rápidos ou boas escolas para crianças, como recompensa pelo bom comportamento.
O The Guardian informou no ano passado que dados de mais de 377.000 pessoas foram usados ​​para treinar os algoritmos para propósitos similares. Isso pode ter sido uma grande subestimação do escopo. A pesquisa da Universidade de Cardiff revelou que apenas em Bristol, dados de 54.000 famílias, incluindo benefícios, freqüência escolar, crime, falta de moradia, gravidez na adolescência e saúde mental, estão sendo usados ​​nas ferramentas computacionais para prever quais crianças são mais suscetíveis à violência doméstica. abuso sexual ou desaparecimento.
No lado da avaliação de benefícios, o sistema de TI para apoiar o esquema de crédito universal não conseguiu ganhar muitos elogios. Alguns dias atrás, cartas de advertência geradas por computador foram enviadas a muitos moradores em certos bairros, alertando-os de que seus benefícios seriam retirados porque foram encontrados trapaceando. Quase todos os avisos se mostraram errados.
Há duas questões aqui. Uma é administrativa, ou seja, quanto julgamento humano pode ser usado para anular os algoritmos. Conselhos locais insistiram que os resultados de análise não levarão necessariamente a ações. Ativistas de privacidade discordaram. “Embora seja anunciado como sendo capaz de ajudá-lo a tomar uma decisão, na realidade substitui a decisão humana. Você tem essa fé no computador que sempre estará certo ”, disse um grupo de defesa da privacidade à Sky News. Pesquisadores da Universidade de Cardiff também descobriram que “quase não havia supervisão nesta área”. A intervenção excessivamente entusiástica, por exemplo, tirar crianças de suas famílias em circunstâncias não absolutamente necessárias pode ser traumática para o desenvolvimento das crianças. Controvérsias desse tipo têm sido longas e difíceis de debater em lugares como Noruega, Suécia e Finlândia.
Outra é a precisão dos resultados dos algoritmos. A polícia em Kent acredita que entre os casos perseguidos pelo seu algoritmo, mais de um terço de todos os casos na mão da polícia, 98% foram precisos. Se isso for verdade, então a polícia de Kent tem uma definição bastante descontraída de “precisão”, ou sabe algo que o mundo da tecnologia não tem. O Watson, da IBM, uma das tecnologias de IA mais avançadas do mundo, tem sido usado pela Vodafone para ajudar a fornecer serviços digitais ao cliente. Ganhou os prémios da Vodafone e foi aclamado como um grande sucesso de IA pela IBM durante o MWC 2019. A taxa de sucesso do Watson na Vodafone foi de 68%.
No final do ano passado, o Financial Times informou que um dos serviços financeiros mais ambiciosos da China, o Ant Financial, que é afiliado ao Alibaba, nunca usou seu sistema de credit scoring para tomar decisões de empréstimo, apesar de ter sido quatro anos em construção e ter acesso para bilhões de pontos de dados no ecossistema Alibaba. "Houve uma diferença entre 'big data' e 'dados fortes', com o big data nem sempre fornecendo as informações mais relevantes para prever o comportamento", disse um executivo da Ant Financial ao FT. Um analista de think tank colocou isso de uma maneira mais sucinta: “Alguém evadindo impostos pode sempre devolver empréstimos, alguém que quebra as regras de trânsito pode não violar outras regras. Então, não acho que haja um conceito geral de confiabilidade que seja robusto. A confiabilidade é muito específica do contexto. ”
É compreensível que a polícia do Reino Unido e os conselhos locais estejam cada vez mais contando com algoritmos e aprendizado de máquina, já que estão sob severo corte de gastos. A saída de algoritmos pode ser usada como referência útil, mas não deve ser tomada pelo valor de face. É provavelmente mais seguro admitir que a IA simplesmente ainda não é boa o suficiente para orientar ou guiar decisões importantes como policiamento, investigação criminal ou intervenção do assistente social. A obtenção de um serviço de atendimento ao cliente da Vodafone mais preciso é um objetivo mais realista. Mesmo que o bot ainda não ajude você a configurar o seu novo telefone corretamente, você não ficará na fila do foodbank, nem terá seus filhos levados para fins de “prevenção ao crime”.
Via: telecoms

Nenhum comentário:

Postar um comentário

Post Top Ad

Your Ad Spot