La inteligencia artificial y protección de datos está intrínsecamente relacionada con el tratamiento de grandes volúmenes de información personal
Esto plantea riesgos relacionados con la seguridad de la información y la privacidad de los individuos, garantizada desde el artículo 18 de nuestra Carta Magna, dado que los algoritmos de IA procesan también datos sensibles (salud, datos de afiliación sindical, política, tendencia sexual, condenas penales, etc.), que permiten generar perfiles de usuarios para ofrecer servicios cada vez más personalizados. La recopilación masiva de datos puede generar graves amenazas y brechas de seguridad, lo que subraya la importancia de adoptar medidas preventivas basadas en el RGPD y la LOPD y GDD.
Protección de Datos e Inteligencia Artificial: Principales Riesgos.
La recopilación masiva de datos por parte de las empresas que implementan soluciones tecnológicas basadas en IA, da lugar a la toma de decisiones automatizadas, incluso a gran escala, que pueden generar grandes conflictos éticos.
Las soluciones o modelos basados en IA pueden generar múltiples riesgos que pueden dar lugar a infracciones de los principios clásicos en los que descansa la protección de datos, como pueden ser los principios de licitud, lealtad y transparencia (procesamiento justo), de minimización y de finalidad.
Vulneración del procesamiento justo: Un procesamiento justo requiere que los responsables de tratamiento de los datos consideren el impacto probable del uso de IA en las personas y lo reevalúen continuamente, atendiendo especialmente a los sesgos que pueden afectar a un sistema de IA.
Así, el responsable debe tener en cuenta y justificar activamente por qué un algoritmo es justo y que el uso del algoritmo elegido no conduce a resultados inapropiados. Ello implica la necesidad de adoptar medidas adecuadas y activas desde que se diseña o construye la solución o modelo basado en IA, así como su auditoría y control permanente.
Vulneración del principio de minimización: Los algoritmos en los que se basa la IA requieren por lo general ingentes cantidades de datos para que la solución o modelo sea eficaz. Ello nos pone inmediatamente en relación con otro de los principios clásicos que regulan la protección de datos personales y que no es otro que el de la minimización de los datos a tratar (art. 5 del RGPD).
Por tanto, qué datos serán necesarios varía según el sistema de IA que estemos fabricando y entrenando, y el objetivo para el que se utiliza. Los responsables de tratamiento deben de diseñar con suma cautela desde el principio cada sistema de IA y establecer límites que sean suficientes para lograr el propósito perseguido, en lugar de utilizar todos los datos posibles que tengan a su alcance.
Vulneración del principio de finalidad: Por mucho que las herramientas de IA sean potentes y atractivas para una empresa, se han de regular y tener muy claras las finalidades para las cuales se van a recabar y tratar tales datos en el diseño de las mismas, finalidades que han de adaptarse a lo que señala nuestra normativa en vigor, especialmente en materia de privacidad y protección de datos.
Cuando el modelo de IA recabe y trate datos que no se ajustan a las citadas finalidades se infringe este principio básico. De ahí que las empresas han de redactar y hacer públicas sus políticas de privacidad, señalando para qué concretas finalidades se tratarán los datos recabados para entrenar sus modelos de IA, de tal forma que los datos solo podrán ser utilizados para tales finalidades, y si se pretenden utilizar para nuevas finalidades, se requerirá siempre la información previa al usuario y su consentimiento previo.
Otros posibles riesgos a evitar cuando hablamos de sistemas de IA y protección de datos son los siguientes:
• Errores que afecten a la exactitud de los datos, como sesgos en la programación, errores de diseño y programación, …..que pueden derivar en discriminaciones.
• Accesos no autorizados de terceros.
• Manipulación del sistema de IA para alterar los resultados obtenidos.
• Filtración de los datos que emplea la IA.
• Falta de base legal para el procesamiento de datos por sistemas de IA, especialmente en lo referente a datos de categorías sensibles.
• Falta de transparencia (porque la información que se dé sobre el sistema de IA no sea lo suficientemente clara o comprensible).
• Etc.
Por ello si su empresa se plantea utilizar soluciones basadas en IA deberá extremar su precaución desde el principio a la hora de diseñarlas.
Para ello es muy importante que su empresa cuente con la ayuda de abogados expertos en la materia, evitando así las infracciones y sanciones en esta materia.
En Queipo y Riego Abogados llevamos desde el año 2006 implantando y auditando con éxito los programas de protección de datos personales para toda clase de entidades públicas y privadas.
Queipo y Riego Abogados, Oviedo y Madrid, teléfono 985 965 463 y 607 659 399