14 fuerzas policiales de UK ya trabajan con softwares de predicción de delitos

Según la organización que ha realizado el estudio, el uso de estos algoritmos podría discriminar a grupos minoritarios de la sociedad.

14 fuerzas policiales de UK ya trabajan con softwares de predicción de delitos
14 fuerzas policiales de Reino Unidos utilizan softwares de predicción de crímenes. West Midlands Police

La polémica ya está servida en Reino Unido tras la investigación realizada por Liberty, un grupo en defensa de los derechos humanos que ha afirmado que cada vez más fuerzas policiales del país trabajan con softwares de predicción de crímenes.

Podría parecer que esto es una buena noticia, ya que las herramientas tecnológicas ayudan a mejorar el trabajo realizado por los expertos. Sin embargo, y como denuncia el grupo, solo es un método más para reforzar la discriminación contra las minorías de la población británica.

14 fuerzas policiales usan estos softwares

No es nuevo para nosotros que la policía tire de Inteligencia Artificial para acabar con la delincuencia. Por ejemplo, en China, gran amante de la tecnología para controlar a los ciudadanos, la policía recurrió a gafas inteligentes con reconocimiento facial que podía identificar a personas con antecedentes.

"Policing by machine: Predictive policing and the threat to our rights" es el nombre del estudio que ha puesto en serio compromiso el trabajo que realizan 14 fuerzas policiales actualmente. Tras realizar la investigación necesaria, Liberty ha descubierto que esos grupos utilizan o planean utilizar algoritmos para predecir delitos.

Por el momento, los softwares se utilizan para emplear de forma más eficiente los recursos con los que se cuenta. Sin embargo, desde Liberty temen que sirvan también para sobrevigilar algunas zonas del país. En concreto, las 14 fuerzas policiales de Reino Unido mencionadas en el estudio son las siguientes:

  • Avon and Somerset
  • Cheshire
  • Durham
  • Dyfed Powys
  • Greater Manchester
  • Kent
  • Lancashire
  • Merseyside
  • The Met
  • Norfolk
  • Northamptonshire
  • Warwickshire and West Mercia
  • West Midlands
  • West Yorkshire

Dos son los tipos de software utilizados por estas instituciones. Por un lado se encuentra el mapa predictivo, que trabaja con un algoritmo que se encarga de predecir qué zonas de una ciudad son las que tienden a albergar más delitos. De esta forma, la policía puede enviar allí más patrullas antes de que sucedan los problemas.

En segundo lugar está la "evaluación de riesgo individual", que trabaja prediciendo qué probabilidad hay de que una persona cometa o sea víctima de un delito, según explica BBC. IBM, Microsoft, Predpol y Palantir son algunas de las compañías que están desarrollando este tipo de softwares para la policía.

Algoritmos discriminatorios para las minorías

Hannah Couchman, autora del estudio, ha explicado que los algoritmos están influenciados por datos imparciales, por lo que incorporan ya enfoques discriminatorios al trabajar a la vez que agregan una capa tecnológica neutral que da una falsa validez a sus conclusiones.

El estudio no solo ha denunciado el riesgo de discriminación que conlleva el uso de estos algoritmos, sino también la grave falta de transparencia de las fuerzas policiales al utilizarlos. Además, estos softwares no cuentan con la supervisión adecuada y no hay pruebas aún de que ayuden a construir comunidades más seguras. Así lo explica el informe:

Estos programas informáticos opacos utilizan algoritmos para analizar hordas de datos policiales sesgados, identificando patrones e incorporando un enfoque a la vigilancia policial que se basa en perfiles discriminatorios. [Ellos] afianzan las desigualdades preexistentes mientras se disfrazan de innovaciones rentables.

Las fuerzas policiales se defienden

BBC se ha puesto en contacto con los grupos policiales mencionados en el estudio para comprobar si es verdad que están utilizando esos algoritmos de predicción o no. Solo dos de las fuerzas respondieron a sus solicitudes para afirmar que ya habían dejado de utilizar esos softwares en cuestión.

Una de ellas es la Policía de Cheshire, que admitió que trabajó con un programa de mapeo entre enero y noviembre de 2015, pero que no había vuelto a utilizarlo desde entonces. La segunda es la Policía de Kent, que usó una herramienta de mapeo de vigilancia predictiva en 2013, pero no renovó el contrato el pasado año, por lo que el uso ya es pasado.

Al otro lado de la historia tenemos a otras fuerzas como la Policía Metropolitana, la Policía de Merseyside, la Policía de West Yorkshire o la Policía de West Midlands. Todas estas, y algunas más, participan en un proyecto de prueba con un valor de 4,5 millones de libras financiado por el Ministerio de Interior.

Registros de delitos, de custodias, historiales de condenas, etc. son algunos de los datos que recolecta ese programa para calcular una puntuación de riesgo con la que evaluar las probabilidades que tiene una persona de cometer un delito en el futuro.

Aunque los organizadores del programa han alegado que este pone en el centro los derechos humanos, otros expertos como los del Instituto Alan Turing ya han acusado al ministerio de dar poca información sobre los riesgos que conlleva usar un algoritmo que trabaja con datos de 5 millones de personas, apoyando lo explicado por Liberty.

Para ti
Queremos saber tu opinión. ¡Comenta!