Aquel que domine los números sabrá el rumbo del futuro. Sólo hay que alimentar con una buena ración de datos un algoritmo y obtendremos la probabilidad de que algo ocurra en determinado lugar, en una fecha determinada. El proceso vale para todo. También para predecir un crimen. En eso consiste la llamada «policía predictiva», en la utilización de un software informático para anticipar la comisión de un delito en una determinada zona de la ciudad. Es la idea que se llevó al extremo en Minority Report, la película en la que Tom Cruise detenía a los malos justo antes de delinquir. Utilizar el manejo de grandes cantidades de datos (Big Data) como un agente policial más es una práctica que ya están ejercitando distintos cuerpos en Estados Unidos. Y también en España. La Policía de Rivas, en la comunidad madrileña, usa desde 2016, a modo de programa piloto, el software PredCrime, desarrollado por investigadores de la Universidad Jaume I de Castellón. Este modelo de inteligencia artificial usa la base de datos de los delitos y faltas ya cometidos para alimentar un modelo matemático que elabora unos mapas de riesgos «exactos y confiables» -dicen los programadores- que deberían ayudar a la Policía a adelantarse a los delincuentes. ¿Funciona? La Policía de Memphis (EEUU) asegura que sí, que la delincuencia grave se ha reducido en un 30% y los delitos violentos un 15%. La de Richmond cifra esa reducción en un 30%. Sin embargo, revistas especializadas en tecnología han desvelado que la compañía desarrolladora de uno de los programas más populares de «policía predictiva», el PredPol, obliga por contrato a sus clientes a hablar bien del producto a la Policía de otras ciudades. Además, rebaja en un 36% el precio del programa -y lo vende por 135.000 dólares- a cambio de que el cliente luego lo promocione. La Unión Americana de Libertades Civiles (ACLU), según acaba de publicar Quartz, también tiene una seria objeción que presentar al uso de este tipo de algoritmos: resulta que no sabemos cómo funcionan, cómo se procesan los datos, y resulta también que la máquina tiene una propensión a señalar directa y desproporcionadamente a las minorías raciales. La ACLU argumenta que si estos algoritmos se desarrollan «a puerta cerrada y luego se aplican al público», los ciudadanos no pueden entender con exactitud cómo están siendo vigilados, «lo que significa que no pueden responsabilizar a la Policía de prácticas discriminatorias». Por ello, lo primero que exige es transparencia, saber cómo se «cocinan» los números. «Los proveedores (de estos programas informáticos) deben estar sujetos a una investigación en profundidad, independiente, sobre sus técnicas y objetivos», escribió esta entidad en agosto del año pasado. Al tiempo, pedía prudencia: «La tendencia natural de apresurarse a adoptar nuevas tecnologías debe resistirse hasta que se alcance un verdadero entendimiento de cuáles serán sus efectos a corto y largo plazo». Uno de estos fabricantes de «policías predictivos», CivicScape, acaba de abrir su código para que cualquier experto pueda examinarlo. A ver qué encuentra.