
La directora de la Autoridad Catalana de Protección de Datos (APDCAT), Meritxell Borràs i Solé, y el presidente de la Autoridad Vasca de Protección de Datos (ABPD), Uniai Aberasturi Gorriño, han firmado un convenio de colaboración para potenciar entre las organizaciones vascas el modelo catalán para la elaboración de evaluaciones de impacto sobre los derechos fundamentales (FRIA). El objetivo es que se convierta en una metodología de referencia también para las entidades vascas a la hora de mitigar los efectos de la IA en situaciones de alto riesgo para las personas.
El acuerdo evidencia el compromiso de las dos entidades para cooperar en materia de protección de datos personales y regulación de los sistemas de IA. Así quieren promover entre las entidades de su ámbito el modelo FRIA catalán para que sirva de guía a la hora de llevar a cabo una evaluación de impacto sobre los derechos fundamentales. Este es un requisito obligado siempre que las organizaciones empleen la IA y ello suponga un riesgo alto para los derechos de las personas, de acuerdo con el Reglamento de Inteligencia Artificial (RIA). El objetivo de esta evaluación es identificar riesgos e implementar las medidas adecuadas para reducirlos y mitigarlos.
Derechos fundamentales con la IA
Cabe recordar que las autoridades de control en materia de protección de datos han sido designadas como autoridades encargadas de proteger los derechos fundamentales con los sistemas de IA, lo que implica promover la sensibilización en la materia, facilitando guías e instrumentos que ayuden a cumplir las obligaciones que impone el ordenamiento jurídico.
En este sentido, el modelo FRIA catalán es una metodología pionera en Europa, que se confeccionó en el marco de la comunidad de delegados y delegadas de protección de datos de Cataluña 'DPD en xarxa', impulsada por la APDCAT. En concreto, dentro del grupo de trabajo liderado por el experto del Comité Europeo de Protección de Datos y profesor de Derecho Privado y titular de la Cátedra Jean Monnet de Sociedades Digitales Mediterráneas y Derecho en la Universidad Politécnica de Turín, Alessandro Mantelero.
Se configura como un instrumento para garantizar una IA fiable y centrada en el ser humano, especialmente teniendo en cuenta que los datos y la tecnología dibujan perfiles y patrones que sirven para influir en las personas. Se articula en torno a un modelo teórico aplicado en varios casos de uso reales. Todo ello, con la voluntad de proporcionar a los responsables del despliegue y proveedores de los sistemas de IA herramientas sencillas y útiles, que les permitan cumplir con el RIA.
En virtud del acuerdo firmado, las partes compartirán las actuaciones o los casos de uso en que se implemente el modelo FRIA dentro de su ámbito, y podrán acordar colaborar en su aplicación práctica e intercambiar los resultados derivados del uso de la metodología. Igualmente, se apoyarán en el ejercicio de determinadas actividades y en el fomento de actividades de formación y difusión.
La Autoridad Catalana de Protección de Datos y la Autoridad Vasca de Protección de Datos han firmado un convenio para potenciar que las entidades de su ámbito empleen el modelo FRIA catalán como metodología de referencia para identificar los riesgos de la inteligencia artificial y establecer medidas para mitigarlos.