EL GOBIERNO APRUEBA UN SOFTWARE, DE “POLÍCIA PREDICTIVA” – Salvador T.

POLICÍA PREDICTIVA, ¿REPRIMIR Y DETENER ANTES DE COMETER EL DELITO?

  • Minority Report en las policías europeas: llegan los sistemas de predicción de delitos (El Salto).
  • Las afirmaciones ‘falsas’ sobre el “software de policía predictiva” que habría aprobado el Gobierno para detener a personas “antes de cometer un delito” (MALDITA.ES).

Salvador T. Giménez | Opinión | Política | El Gobierno va a hacer realidad la descripción realizada en las películas de ciencia ficción distópicas como Minority Report. El Ministerio del Interior ha aprobado el uso de este sistema integrado de bases de datos para así «prevenir» los delitos antes de que sucedan mediante la combinación de vigilancia generalizada, tecnologías de predicción de comportamiento, minería de datos, tecnología precognitiva y programas de soplones familiares y del vecindario que permitan a la policía capturar posibles delincuentes antes de que puedan cometer los delitos que «previsiblemente» cometerán.

España compartirá con el resto de países firmantes del Tratado de Prüm (conocido como Shcenguen III) imágenes de los rostros de personas sospechosas que, o bien tengan antecedentes penales o bien estén incluidos en algún fichero reservado de la policía (los llamados genéricamente «antecedentes policiales»), y que en combinación con sistemas de Inteligencia Artificial, servirá para elaborar los atestados e informes de la Policía.

Ejemplo: si usted ha sido detenido en alguna ocasión -aunque no haya sido condenado-, y luego acuda a una manifestación no autorizada, donde se le ha reconocido vía reconocimiento facial, y luego ocurra un delito a poca distancia, sepa que puede ser detenido.

Esta tecnología permite así cruzar información de las personas que obran en dichas bases de datos con las que se captan mediante cámaras fijas a pie de calle, comercios, edificios públicos o drones policiales, incluyendo los sistemas de reconocimiento facial. Las Delegaciones del Gobierno, que son las que tendrán que autorizar su uso, implantarán esta tecnología para su aplicación en espectáculos multitudinarios de prácticamente cualquier tipo, como manifestaciones, partidos de fútbol, conciertos, etc.

Cualquiera puede colaborar

Esto implica que cualquier sistema de videovigilancia registrado en la Agencia de Protección de Datos pueda ser utilizado, llegado el caso, para esta actividad. Bares, comunidades de vecinos o vigilantes de circuitos cerrados de televisión pueden así convertirse en soplones policiales.

Al igual que en la Alemania Nazi, el programa tiene como finalidad reducir el personal estatal destinado a las funciones de vigilancia y espionaje, para que sean las propias personas vigiladas quienes informen de sus vecinos.

Esto es lo que los propios alemanes que vivieron el fascismo descubrieron rápidamente: no tendrás que hacer nada ilegal o desafiar la autoridad del Estado, porque serás señalado como alguien sospechoso, etiquetado como enemigo y probablemente encerrado como un criminal peligroso.

De hecho, todo lo que tendrá que hacer cualquiera de las víctimas de este nuevo software es usar ciertas palabras de activación, navegar por Internet, comunicarse usando un teléfono móvil, conducir un coche, hospedarse en un hotel, comprar materiales en una ferretería, tomar lecciones de vuelo o navegación, parecer sospechoso a un vecino o cuestionar la autoridad del gobierno.

Minority Report en las policías europeas: llegan los sistemas de predicción de delitos (El Salto – Mayo 2019)

La comisaria europea de Derechos Humanos alerta del uso de algoritmos en sistemas policiales y judiciales de la Unión que atentan contra los derechos ciudadanos.

Algoritmos para predecir en qué zonas es más probable que tengan lugar robos u otro tipo de crímenes, algoritmos para ayudar a decidir si imponer prisión preventiva o no a una persona pendiente de juicio. Los algoritmos han llegado y también lo han hecho a los sistemas policiales y judiciales europeos. Y de ello alerta la comisaria de Derechos Humanos en el Consejo de Europa, Dunja Mijatović. “Aunque aún se encuentran en sus etapas experimentales, el uso de algoritmos de aprendizaje automático en los sistemas de justicia penal es cada vez más común”, afirma Mijatović en un texto publicado en la web del Consejo de Europa en el que señalaba los resultados “potencialmente discriminatorios” de este tipo de programas de predicción de delitos.

Como ejemplo, cita PredPol, un programa diseñado por el departamento de policía de Los Ángeles (Estados Unidos) en colaboración con la Universidad de California en Los Ángeles (UCLA) que extrapola los datos de estadísticas criminales CompStat —sí, esa que usaban los policías de la serie The Wire—. ¿Cómo funciona? En la web de PredPol se explica que calcula las predicciones en base a tres tipos de datos: tipo de crimen, localización y fecha y hora. No usa información personal, ni demográfica, étnica o socioeconómica —se afirma en la web—, y los resultados se representan en un Google Map en el que se localizan las áreas con más alto riesgo de delitos cada día y en cada turno. En 2013, la policía de Kent (Reino Unido) compró los derechos de uso del programa por 100.000 libras anuales. Lo probó durante cinco años y en noviembre de 2018 desechó su uso, anunciando que seguirían trabajando en esa dirección, con un nuevo proyecto o construyendo su propio sistema. “Predpol tenía un buen historial de predecir dónde es probable que se cometan los crímenes”, afirmaba entonces John Phillips, superintendente de la policía de Kent, al Financial Times. “Lo que es más difícil es demostrar que hemos podido reducir el crimen con esa información”.

Este programa de algoritmos, así como otros parecidos usados en otras zonas de Reino Unido —como Manchester, Yorkshire o West Midlands— fueron criticados por organizaciones como Big Brother Watch en un informe en el que citaban estudios realizados sobre este tipo de sistemas que concluían que estos refuerzan patrones ya existentes de discriminación y dan lugar a una retroalimentación, conllevando que la policía sea enviada a vecindarios en los que ya hay una presencia excesiva de policías, independientemente de la tasa real de criminalidad.

Otro de los sistemas de algoritmos a los que hace referencia la comisaria de Derechos Humanos europea es la Herramienta de Evaluación de Riesgo de Daños (HART por sus siglas en inglés), usada por la policía de Durham, también en Reino Unido, para decidir si mantener o no a un sospechoso de un delito en custodia o si derivarlo a un programa de rehabilitación. Para ello, Hart utiliza hasta 34 categorías diferentes de datos que van de la edad y el sexo al historial delictivo. Y, al menos hasta abril, también usaba el código postal del sospechoso, lo que desde Big Brother Watch señalan que deriva en la criminalización de la pobreza. Un informe de 2018 elaborado por el Royal United Services Institute for Defence and Security Studies —que no es precisamente un lobby conservador en cuanto a tecnología aplicada a defensa y seguridad— también alertaba de que sistemas como Hart “reproducirán inevitablemente los sesgos inherentes a los datos que se les proporcionan”, lo que perjudicará a las minorías étnicas y religiosas.

Pero más allá de la experiencia británica, este tipo de sistemas de algoritmos también han llegado a otros países de la Unión Europea, como Italia, donde el sistema XLAW se usa en Nápoles y Venecia para prevenir robos, o en Alemania, donde el sistema Precobs —que suena aún más a los precons de Minority Report— se usa ya, de manera corriente o en fase piloto, en los cantones de Aargau, Basel, Baden-Württemberg, Babaria, en Sajonia y en Zug. Precobs también se usa desde 2013 en Zurich (Suiza) para prevención de robos en viviendas.

En España, este tipo de sistemas predictivos también han comenzado a hacerse hueco. A finales de 2015 Rivas (Madrid) fue el primer municipio en comenzar a experimentar con el sistema Pred-Crime. Su policía local lo usó durante nueve meses tras los cuales lo descartaron. “Necesita seguir desarrollándose para ser realmente eficaz”, señalan a El Salto desde el prensa del Ayuntamiento. Diseñada por EuroCop Security Systems, empresa constituida en 2004 y que a día de hoy cuenta con doce empleados y, en 2017, facturó 3,7 millones de euros —casi el doble que en los dos ejercicios anteriores—. En España, su administrador único y director general, financiero, comercial, de márketing y de informática es Ramón García Esteve.

También en 2015, desde la Policía Nacional se comenzó a desarrollar un sistema parecido de la mano del policía científico Miguel Camacho Collados, que en 2014 había recibido una beca Fullbright para estudiar este tipo de sistemas, en colaboración con la Universidad de Granada, la UCLA y la Policía de Los Ángeles, siguiendo la senda de PredPol. Aunque no hay más información sobre el posterior desarrollo de este sistema, desde finales de 2018 sí entró en fase piloto en la Policía Nacional otro sistema basado en algoritmos, en este caso para detectar denuncias falsas, Veripol, también desarrollado por Camacho e instalado ya en todas las comisarías.

Las afirmaciones falsas sobre el “software de policía predictiva” que habría aprobado el Gobierno para detener a personas “antes de cometer un delito” (MALDITA.ES – Mayo 2021)

Hay varios contenidos circulando que afirman que el Ministerio del Interior ha aprobado un software de “policía predictiva” para detener a una persona “antes de cometer un delito”. Todos parten de un contenido que asegura que el ministerio supuestamente usará bases de datos combinadas y diferentes tecnologías, como los sistemas de reconocimiento facial, para prevenir posibles delitos. Los contenidos hacen referencia a la vigilancia masiva, que comparan con la “Alemania nazi”.

Cuando hablamos de “policía predictiva” nos referimos a herramientas tecnológicas que se usan para analizar y comparar datos y predecir diferentes patrones relacionados con crímenes: dónde es más probable que ocurran, qué perfiles de personas son más propensos a cometerlos, si hay riesgo o no de que alguien vuelva a cometer un crimen, etc. Pueden estar basadas en sistemas de inteligencia artificial o note hablamos más a fondo de este conjunto de tecnologías en este artículo.

Respecto al supuesto software nuevo del que hablan estos contenidos, desde el Ministerio del Interior niegan que se haya puesto en marcha un programa de vigilancia como el que se describe, pero sí que utilizan otro tipo de herramientas informáticas predictivas. Lo cierto es que ya hay varias iniciativas de policía predictiva en marcha en Españapero no de este alcance.

Además, en la Unión Europea se lleva trabajando al menos desde 2017 en el diseño de protocolos para hacer que las bases de datos nacionales de criminales y personas sospechosas de actos terroristas puedan ser interoperables entre sí. Esto es, que las bases de datos de un país comunitario sean accesibles para el resto de países miembros y no solo a nivel europeo. España entra en ese grupo de países y este protocolo encaja con algunas de las afirmaciones que se hacen en estos contenidos.

El Ministerio del Interior niega contar con un “nuevo software de policía predictiva” con este alcance

En los contenidos que se están moviendo hablan de un “nuevo software” de “policía predictiva” para detener a personas que funcionaría con una “combinación de vigilancia generalizada, tecnologías de predicción de comportamiento, minería de datos, tecnología precognitiva y programas de soplones familiares y del vecindario”.

También dicen que con la base de datos que se utilice para ese supuesto programa se podrá “cruzar información de las personas que obran en dichas bases de datos con las que se captan mediante cámaras fijas a pie de calle, comercios, edificios públicos o drones policiales, incluyendo los sistemas de reconocimiento facial”.

Desde el Ministerio del Interior aseguran a Maldita.es que no tienen ningún programa o proyecto similar al que describen dichos contenidos o con ese alcance.

Las trabas legales a detener a una persona sin que haya cometido un delito

Pese a que sí se usan herramientas tecnológicas en este campo, como explicamos más adelante, hay supuestos que citan los textos que circulan que no son tan fáciles de llevar a cabo. Por ejemplo, el acceso indiscriminado a cualquier grabación de una comunidad vecinal o el arresto de personas si no se tienen indicios de que se ha cometido un delito o la detención de una persona antes de que haya indicios razonables.

Rahul Uttamchandani, abogado especializado en tecnologías y director legal de Legal Army, explica a Maldita.es que a día de hoy en España la ley no contempla que se pueda detener a una persona solo porque un modelo matemático predice que es más propensa a cometer un determinado tipo de delito: “Solo por tener indicios, en el contexto en el que estamos hablando no se considerarían los resultados de ese modelo”.

Entre esos supuestos, el que hayan citado a una persona a declarar pero no comparezca o si un juez dictamina que hay indicios suficientes: “Si hay pruebas razonables de que se ha cometido un delito, eso también son indicios, y si el juez considera que esas pruebas son suficientes,  a su juicio, sí que se llevaría a cabo la detención”, añade. Pero no sin pasar por este proceso judicial que analice las pruebas que se han recogido para una detención.

Los contenidos que circulan también hablan de vigilar las manifestaciones de personas con reconocimiento facial o de que la policía pueda acceder a cualquier grabación de videovigilancia. Por el momento, Uttamchandani explica que este tipo de vigilancia no tiene cabida en la legislación española todavía y no es aplicable. La normativa que dictará las normas para esas situaciones es una transposición de la Directiva 680/2016 europea, que acaba de salir adelante en el Senado español y aún debe publicarse en el BOE.

“Tiene que haber un riesgo razonable para la seguridad de los ciudadanos que les lleve a requerir el acceso [a la policía]”, expone este especialista sobre el asunto del acceso indiscriminado a cualquier cámara de videovigilancia vecinal o perteneciente a una entidad privada: “Tienen acceso a cámaras de videovigilancia cuando es necesario para desempeñar sus funciones, pero no es que puedan acceder de una forma sistemática y aleatoria a grabaciones así porque sí”.

Sí se prepara un protocolo de intercambio de datos a nivel europeo

En los contenidos que circulan aseguran que “España compartirá con el resto de países firmantes del Tratado de Prüm imágenes de los rostros de personas sospechosas que, o bien tengan antecedentes penales o bien estén incluidos en algún fichero reservado de la policía (los llamados genéricamente ‘antecedentes policiales’)”.

El Tratado de Prüm es un convenio europeo firmado en 2005 que establece un marco legal para que los países miembros cooperen en “la lucha contra el terrorismo, la delincuencia transfronteriza y la inmigración ilegal”. Se hizo en previsión de que se pudiesen intercambiar perfiles de ADN, datos dactiloscópicos (como huellas dactilares), registros de matriculación de vehículos y más datos personales relacionados con este ámbito.

Según explica a Maldita.es Ana Valdivia, doctora e investigadora de inteligencia artificial en procesos migratorios en King’s College London, a día de hoy en la UE se utilizan varios sistemas de información transfronterizos, entre ellos el Sistema de Información Schengen de segunda generación (SIS II) y también EURODAC para personas migrantes. Este último es una base de datos biométricos de personas que solicitan asilo al llegar a Europa. Ambos sistemas se van a actualizar entre 2021 y 2023.

Valdivia afirma que actualmente se está trabajando en un protocolo de interoperabilidad para las bases de datos que tengan los países a nivel nacionaltal y como propuso la UE en 2017 y dentro del marco del Tratado de Prüm. En ese momento, la Comisión Europea anunció que tenía intención de “crear un portal de búsqueda europeo capaz de consultar simultáneamente todos los sistemas relevantes de la UE en los ámbitos de seguridad, gestión de migraciones y fronteras (…) y desarrollar para estos sistemas un servicio para cotejar datos biométricos y un repositorio de identidades”.

España forma parte de los países que se adhirieron a ese tratado, por lo que también participa en estos proyectos de interoperabilidad. Todos estos sistemas los gestiona eu-LISA, la agencia europea para la Gestión Operativa de Sistemas Informáticos de Gran Magnitud en el Espacio de Libertad, Seguridad y Justicia.

“Esto entra también en el diseño de la nueva base de datos que se está creando, la Entry Exit System (EES)”, aclara Valdivia, una base de datos de control de paso por las fronteras europeas.

Desde el Ministerio del Interior confirman a Maldita.es que en 2021 hay activos varios de estos procesos para hacer interoperables las bases de datos nacionales, incluidas las actualizaciones de EURODAC y SIS. Según los datos que ha proporcionado el departamento, también la EES se desarrollará este año, así como el Sistema Europeo de Información de Antecedentes Penales para ciudadanos de terceros países. La inclusión de datos biométricos de las bases de datos nacionales se espera para 2023.

Estos sistemas son con los que se cotejarán imágenes usando tecnologías de reconocimiento facial. Por otro lado, el análisis de datos biométricos y de identidades de personas se hará con algoritmos basados en machine learning (te hablamos de este concepto en este artículo). Valdivia avisa que en este campo se ha observado una alta tasa de falsos positivos y también una tendencia a la discriminación de personas racializadas.

Las herramientas de policía predictiva que sí se utilizan en dependencias del ministerio

Hay que señalar que además de estos protocolos a nivel europeo, el Ministerio del Interior sí que utiliza diversas herramientas tecnológicas para analizar datos y predecir situaciones relacionadas con crímenes en España. Tienen distintos objetivos y algunos están basados en programas informáticos que se usan en Europa o en países como Estados Unidos, donde se aplican una gran variedad de sistemas para intentar prevenir posibles delitos.

Por ejemplo, la Policía Nacional usa dos herramientas más o menos conocidas: Veripol y VioGen. Veripol es un programa informático diseñado para escanear denuncias interpuestas por robos con violencia e intimidación y hurto por medio de tirones y valorar si pueden ser falsas o no. Por su parte, VioGen es un algoritmo que predice el riesgo que corre una víctima de violencia de género de volver a ser atacada por sus parejas o exparejas. Son sistemas que se usan para predecir un riesgo de forma automatizada y tomar una decisión en base a su resultado. En ambos casos intervienen agentes en su análisis.

En años anteriores, también se ha utilizado software de la empresa Eurocop Security Systems en localidades específicas para predecir zonas en las que se requiriese una mayor presencia policial por tener, supuestamente, mayor riesgo de que se produjera un delito. Participaron el Ayuntamiento de Castellón (Comunidad Valenciana) y el de Rivas (Madrid), pero abandonaron el proyecto poco después. En esta investigación en El Salto algunos de los participantes admitían que era “ineficaz”.

Este tipo de programas informáticos y sistemas basados en IA se han puesto en entredicho por comunidades de investigadores

Hay muchas herramientas de policía predictiva y cada una tiene su propio objetivo. Pese a que se usan en muchos países del mundo, es una rama de la tecnología que se pone en entredicho por la comunidad internacional de investigadores y activistas por la inexactitud de sus resultados en según qué campos y la discriminación que causa a grupos específicos de la ciudadanía.

Por ejemplo, a la hora de marcar barrios donde pueden cometerse delitos. Javier Sánchez Monedero, investigador en el Data Justice Lab de sistemas de inteligencia artificial en el ámbito policial, descarta que se puedan usar estas tecnologías para estos supuestos sin causar una discriminación porque “el crimen se encuentra donde se busca, ergo pueden dar la sensación de funcionar al implementar sesgos policiales de patrulla”.

Valdivia explica que otro de los problemas que presentan estos sistemas es la falta de transparencia: “¿Quién desarrolla los algoritmos que hacen las búsquedas en las bases de datos europeas? No lo dicen, ¿qué algoritmo es?”. La investigadora incide en el hecho de que no existen datos públicos de, por ejemplo, cuántos ataques terroristas se han prevenido cotejando huellas dactilares en un programa informático o usando reconocimiento facial en las fronteras. Sin embargo, es la población migrante la que se escanea continuamente a través de estos sistemas.

Puedes leer más información sobre este tipo de tecnologías en este artículo y también ver la intervención de Ana Valdivia en uno de los programas sobre inteligencia artificial aplicada a fronteras en Maldita Tecnología para conocer más información sobre su uso.

ENLACES RELACIONADOS:

https://www.lavanguardia.com/tecnologia/20190318/461013536935/inteligencia-artifical-vigilancia-predictiva-policia.html

https://elpais.com/economia/2019/10/24/actualidad/1571928693_162655.html

https://www.elmundo.es/tecnologia/2017/07/21/5971a077e5fdea7a618b45bc.html

https://www.xataka.com/privacidad/asi-opera-palantir-software-que-utiliza-ee-uu-para-encontrar-e-identificar-a-millones-personas