MWC

Reconocimiento facial, ¿amenaza u oportunidad?

Expertos y activistas digitales debaten sobre los riesgos de esos sistemas sobre la privacidad ciudadana y el camino de regulación tomado por la UE

Reconocimiento facial en los accesos del Mobile World Congress 2019, en Barcelona.

Reconocimiento facial en los accesos del Mobile World Congress 2019, en Barcelona. / Jordi Cotrina

Carles Planas Bou

La historia nos advierte desde hace décadas de los peligros de la tecnología cuando es usada para controlar a los ciudadanos. Los temores anticipados el siglo pasado en las novelas distópicas de Huxley y Orwell se ha ido materializando en la actualidad. Mercadona, por ejemplo, trató de instalar un sistema de reconocimiento facial para prohibir la entrada a gente con antecedentes penales, pero la justicia lo tumbó al considerar que era un uso desproporcionado que “viola la privacidad” de sus clientes. Es en ese escenario donde la normalización de estos sistemas de identificación biométrica plantea un reto mayúsculo.

¿Es una amenaza o una oportunidad? Eso es lo que se ha debatido este miércoles en el Mobile World Congress (MWC) que se celebra en Barcelona y l’Hospitalet de Llobregat. El acto, organizado por la Autoritat Catalana de Protecció de Dades (APDCAT) en el marco del Four Years From Now (4YFN), ha reunido distintas posiciones para evaluar qué usos positivos se puede dar a esos sistemas y qué potencial peligro suponen para la privacidad.

En los últimos diez años se ha perfeccionado el reconocimiento facial, pero también la detección de voz, de objetos y del lenguaje automatizado. “Ahora las caras pueden ser reconocidas aunque lleven máscaras, gafas, con mala iluminación, poca calidad de imagen e incluso con enfoques no frontales”, ha señalado Carles Fernández, director técnico de Herta Security, compañía catalana especializada en esos sistemas.

Regulación europea

Aunque la evolución de esas tecnologías es una realidad, también lo es el camino de regulación que está siguiendo la Unión Europea (UE). El pasado abril la Comisión Europea (CE) planteó una normativa que prohíbe el uso masivo del reconocimiento facial y sólo lo permite en casos de “alto riesgo” como serían en la investigación de casos criminales o la prevención de ataques terroristas. Sin embargo, la activista y cofundadora de Xnet, Simona Levi, señala que es ley es “demasiado tecnocéntrica” y contempla “demasiadas excepciones para usos policiales”. “Los derechos humanos no pueden ser daños colaterales de la digitalización”, ha remarcado.

Y es que aunque haya una ley eso no garantiza que se cumpla. Sucede con los mecanismos que grandes plataformas como AmazonFacebook Google aplican para no respetar el Reglamento General de Protección de Datos Europeo (RGPD) y puede pasar ahora con el reconocimiento facial. “En España la regulación administrativa no está adaptada a la RGPD y se nos piden muchos más datos de los que debemos ceder”, ha explicado Levi. “Si no se protege algo tan básico tenemos que ser muy cuidadosos sobre cómo el Gobierno usa la vigilancia biométrica”.

Sesgos y vigilancia

Aunque la precisión de ciertos sistemas de reconocimiento facial se cifra en hasta un 99,8%, otro de los retos de esta tecnología es la amplificación de sesgos clasistas, de raza o de género ya existentes en la sociedad. “Muchas veces el algoritmo es opaco y es difícil ver qué sesgos tienen incluso para la gente que los fabrica y evalúa”, ha confesado Fernández. Es por eso ve necesario que las bases de datos representen la diversidad social y que la UE aplique certificados que señalen el objetivo con el que se usará cada algoritmo.

El camino tomado por la UE se aleja del autoritarismo digital de China y de la vía de Estados Unidos, donde se mezcla la prohibición total en algunos Estados con la permisividad en su uso privado en otros. Levi advierte que, aún así, “se están tomando usos muy invasivos” con la privacidad ciudadana. Pérez, que trabaja en el sector, considera que esos sistemas pueden tener usos positivos, como el de restringir de forma seguro el acceso a lugares peligrosas como una central nuclear.

La sesión ha cerrado con una reflexión clave de Josep Domingo-Ferrer, director de la Cátedra UNESCO de Privacidad de los Datos de la Universitat Rovira i Virgili (URV): “No todo lo que es posible tecnológicamente es éticamente aceptable en nuestras sociedades”.