El problema surge porque hay dudas tecnológicas, éticas y morales en el uso de tal medida, pues se desconoce quién garantiza y audita estos tratamientos sobre datos personales biométricos, que gozan de especial protección, y porque puede dar lugar a graves vulneraciones del derecho al honor
La compañía pretende detectar a personas con una orden de alejamiento respecto a la cadena o sus trabajadores, que les prohíbe entrar a las tiendas.
La Agencia Española de Protección de Datos (AEPD) ha iniciado una investigación de oficio a Mercadona por implantar un sistema de reconocimiento facial en unos 40 supermercados de Mallorca, Zaragoza y Valencia. La AEPD ha explicado a EL PAÍS que la investigación se ha iniciado a raíz de las informaciones aparecidas en medios de comunicación, que han suscitado polémica por las implicaciones que pudiera haber sobre los datos biométricos, que tienen una protección especial. “El procedimiento se encuentra en fase de actuaciones previas de investigación, por lo que no podemos ofrecer detalles sobre el mismo dado que se encuentra abierto”, ha explicado la agencia.
“Si la AEPD decide que hay infracción legal, podría poner a Mercadona una sanción económica que puede ser bastante grande, ya que es un tratamiento que ya está en marcha”, afirma Alfonso Pacheco Cifuentes, abogado especializado en protección de datos y copropietario del blog Privacidad Lógica. Al ser datos considerados de categoría especial, explica que se aplicaría el artículo 83.5 del Reglamento General de Protección de datos. Este reglamento establece un régimen sancionador muy severo con multas de hasta 20 millones de euros o, en el caso de una empresa, el 4 % de su volumen de negocios anual mundial.
“No tenemos constancia del expediente abierto por la Agencia pero desde Mercadona hemos estado en contacto con la Agencia Española de Protección de Datos, remitiendo toda la información sobre el proyecto y siguiendo las pautas que nos han dado, actuando con total transparencia. Y así vamos a seguir actuando ante cualquier información que nos sea solicitada”, aseguran desde la empresa.
La compañía valenciana pretende con este sistema detectar a personas con sentencias firmes o medidas cautelares que tengan una orden de alejamiento contra Mercadona o sus trabajadores que les prohíbe entrar a las tiendas. Pero la decisión de usar esta tecnología, recientemente abandonada por IBM y en parte por Amazon por las dudas éticas sobre su uso, y la falta de transparencia al respecto ha suscitado polémica entre múltiples usuarios. ¿Qué supone para un comprador el uso de este tipo de sistemas? ¿Qué dice la ley al respecto? ¿Hasta qué punto falla esta tecnología?
Las tiendas que utilizan este sistema tienen en su entrada un cartel informativo, según Mercadona. Ya hay usuarios que han compartido fotos del mismo en redes sociales. “Le informamos de que Mercadona S.A., con el fin de mejorar su seguridad, ha implementado un sistema de reconocimiento facial para detectar únicamente a aquellas personas con una orden de alejamiento o medida judicial análoga en vigor que puedan suponer un riesgo para su seguridad”, indica el cartel.
Mercadona insiste en que el sistema es absolutamente legal y no almacena las imágenes. Los datos, según explica, desaparecen en 0,3 segundos. Que el proceso sea rápido no significa que no haya un tratamiento de datos, según subraya Pacheco Cifuentes. “Mercadona recoge la imagen de la cara de todas las personas que pasan por delante de los dispositivos. Esas imágenes se vuelcan en el sistema informático de Mercadona o de la empresa contratada al efecto, donde se obtiene mediante el correspondiente software una plantilla o patrón biométrico de esa imagen facial, que se coteja con las plantillas biométricas de las personas con orden de prohibición de entrada en el establecimiento o con orden de alejamiento de empleado de la empresa”, afirma.
Una vez que el sistema detecta que una de estas personas quiere entrar en el supermercado tras cotejar su imagen con una base de datos, el sistema genera una alerta que será contrastada por un equipo de seguridad para después alertar a las Fuerzas y Cuerpos de Seguridad del Estado. El sistema, que será operado por personal propio de la compañía, se nutre con las imágenes generadas por las cámaras de videovigilancia “que han sido aportadas como prueba en el procedimiento judicial donde ha sido dictada la sentencia”, según la empresa. Mercadona descarta ofrecer información sobre cuántas personas hay con sentencias firmes y medida cautelar de orden de alejamiento en vigor contra la compañía o contra alguno de sus trabajadores por motivos de seguridad.
Mercadona asegura que los datos no se almacenan y son eliminados en 0,3 segundos
Los sesgos del reconocimiento facial
Nerea Luis Mingueza, doctora en inteligencia artificial en Sngular, no considera que “estemos aún preparados a nivel tecnológico, ético y legal como para implantar un sistema de ese estilo de forma generalizada”. Mercadona asegura que los datos no se almacenan y son eliminados en 0,3 segundos. “¿Quién audita que esto se cumple?”, pregunta Mingueza, que considera que la compañía pretende así evitar cualquier dilema sobre el almacenamiento de datos.
A ella le preocupa “que no seamos conscientes de las implicaciones en el medio y largo plazo”: “Académicos como Timnit Gebru o Anima Anandkumar y empresas referentes en tecnología han manifestado durante los últimos años la inmadurez de este tipo de sistemas”. San Francisco se convirtió el año pasado en la primera ciudad en Estados Unidos en prohibir el uso de la tecnología de reconocimiento facial. Hace tan solo unas semanas IBM anunció que dejaría de comercializar software propio de reconocimiento facial “de uso general” y Amazon decidió suspender temporalmente el uso policial de su software.
Esta tecnología es polémica porque es capaz de identificar a personas en cualquier contexto sin que se den cuenta y aplicar una serie de sesgos —especialmente con mujeres y negros—. Por ejemplo, en 2018 el reconocimiento facial de Amazon confundió a 28 congresistas con sospechosos de la policía. La Unión Estadounidense por las Libertades Civiles (ACLU) advirtió entonces en un comunicado del peligro de que los organismos oficiales usen este tipo de tecnología: "Que una identificación sea precisa o no puede costarle a una persona su libertad o incluso su vida".
En el caso de las cámaras instaladas en tiendas las consecuencias no serían tan graves, pero también existen. Pacheco pone como ejemplo la vulneración del derecho al honor: “Yo entro en el supermercado y el sistema erróneamente me identifica como una persona sobre la que pesa una prohibición de acceso. Mercadona llama a Policía, que acude y delante de todo el mundo procede a mi detención por quebrantamiento de la orden. Luego se descubre que yo no soy el malo, pero me han detenido delante de un montón de gente, buena parte de la cual me conoce, porque siempre compro en el súper de al lado de casa, donde coincido siempre con conocidos y amigos e incluso el personal también sabe quién soy”.
Protección de datos personales. Queypo y Riego Abogados. Reconocimiento Facial. Datos biométricos.
Fuente: Isabel Rubio.