La Autoridad Catalana de Protección de Datos (APDCAT) y la Autoridad Nacional de Protección de Datos de Brasil (ANPD) han firmado un memorando de entendimiento para colaborar en el diseño, implementación y promoción de herramientas que garanticen el desarrollo de sistemas de inteligencia artificial (SIA) respetuosos con los derechos fundamentales.
En el marco de la 47ª Asamblea Global de Privacidad, que se celebra en Seúl, la directora de la APDCAT, Meritxell Borràs i Solé, y el presidente de la ANPD, Waldemar Gonçalves, han suscrito un conjunto de compromisos para compartir información estratégica e impulsar proyectos conjuntos en materia de inteligencia artificial (IA). En concreto, para disponer de espacios comunes para el intercambio de experiencias y mejorar la protección de los derechos fundamentales en materia de IA.
“El punto principal del acuerdo es la colaboración para la implementación del modelo catalán de identificación y mitigación de riesgos a los derechos fundamentales en el desarrollo de sistemas de IA como referencia en Brasil. La metodología es pionera en Europa y fue desarrollada por la APDCAT”, dijo Waldemar Gonçalves, refiriéndose a FRIA, acrónimo de Evaluación de Impacto de los Derechos Fundamentales, en inglés.
Por su parte, la directora de la APDCAT recordó que a partir de agosto de 2026 la evaluación de impacto sobre los derechos fundamentales será obligatoria para los proyectos de IA de alto riesgo en Europa. “La alianza con la ANPD, por tanto, permitirá promover la metodología en Brasil, compartiendo nuevos casos de uso y resultados”, explicó.
El modelo FRIA catalán, en Brasil
Concretamente, ambas partes colaborarán en la implementación del modelo FRIA catalán para una IA confiable como modelo de referencia en sus ámbitos de actuación. Se trata de una metodología pionera en Europa, impulsada por la APDCAT en el marco de la comunidad ‘DPD en red’, y en colaboración con el profesor y experto Alessandro Mantelero. Sirve para guiar a los desarrolladores de SIA a la hora de identificar posibles riesgos para los derechos fundamentales y cómo mitigarlos, y se ha desarrollado aplicada a casos concretos que sirven de ejemplo. El acuerdo ahora suscrito servirá para promover la metodología catalana también entre las organizaciones, empresas y entidades de Brasil, y para compartir los nuevos casos de uso en que se pueda aplicar, así como los resultados derivados de su uso.
Desde su presentación oficial en el Parlamento de Cataluña el 28 de enero, la APDCAT ha exportado el modelo FRIA catalán para que se convierta en un referente nacional e internacional a la hora de guiar a los desarrolladores de sistemas de IA para que sus productos y servicios respeten los derechos fundamentales y sean confiables. En este sentido, la Autoridad lo ha presentado y promovido durante todo este año en congresos, redes y foros de todo el mundo, como la Red Iberoamericana de Protección de Datos, la Spring Conference, y países como Italia, Brasil, Colombia, Georgia y Costa Rica. Fruto de este trabajo, la APDCAT y la Autoridad Vasca de Protección de Datos firmaron el pasado mes de junio un acuerdo para promover el modelo catalán entre las entidades del País Vasco, y también la Autoridad de Protección de Datos de Croacia lo ha traducido a su idioma y lo recomienda entre las entidades de su ámbito de actuación.
Entornos de pruebas para una IA confiable
Por otra parte, el acuerdo servirá para brindar apoyo técnico e intercambiar conocimientos y experiencias en cuanto al despliegue de sandboxes regulatorios en IA. Son espacios controlados de pruebas en los que las autoridades competentes y los proveedores de SIA trabajan conjuntamente en la definición de buenas prácticas en el uso de IA antes de salir al mercado. El objetivo es que los proyectos de IA sean seguros, confiables y respeten los derechos fundamentales. Así, los sandboxes permiten trabajar en casos concretos de manera supervisada, durante un tiempo determinado y bajo unas condiciones específicas. Y estos proyectos concretos deben servir para guiar y ser un referente en el desarrollo de proyectos con IA de acuerdo con la normativa vigente, especialmente para pequeñas y medianas empresas, emprendedores y startups.
En Europa, el Reglamento de Inteligencia Artificial (RIA) establece la obligación de que las autoridades competentes de todos los Estados miembros proporcionen sandboxes regulatorios en IA en el ámbito nacional, regional y local a partir de agosto de 2026.
El objetivo es mejorar la seguridad jurídica, apoyar el intercambio de buenas prácticas, fomentar la innovación y la competitividad, así como facilitar el desarrollo de un ecosistema de IA, contribuir a un aprendizaje normativo basado en datos contrastados, y facilitar y acelerar el acceso al mercado de los sistemas de IA, en particular para pymes y startups.
En este sentido, el pasado mes de junio la ANPD abrió la convocatoria para la participación en un Sandbox regulatorio piloto en Inteligencia Artificial y Protección de Datos en Brasil, con el objetivo de experimentar con técnicas y tecnologías innovadoras o modelos de negocio.
Programas e investigaciones conjuntas
Asimismo, el memorando prevé desarrollar programas de educación, formación y concienciación en materia de protección de datos personales, así como promover estudios e investigaciones conjuntas, especialmente en lo que respecta a la inteligencia artificial y la privacidad. Finalmente, las partes intercambiarán información relativa a buenas prácticas en materia de políticas de privacidad y protección de datos personales, con el objetivo de mejorar la defensa de los derechos fundamentales de la ciudadanía.
En el marco de la 47ª Asamblea Global de Privacidad, la Autoridad Catalana de Protección de Datos y la Autoridad Nacional de Protección de Datos de Brasil han firmado un memorando de entendimiento para compartir e impulsar herramientas, entornos de pruebas y modelos que sirvan de garantía en el desarrollo de proyectos con inteligencia artificial