En el marco del Día Internacional de la Protección de Datos, la Autoridad Catalana de Protección de Datos (APDCAT) ha presentado en el Parlamento de Cataluña un modelo pionero en Europa para desarrollar soluciones de inteligencia artificial (IA) respetuosas con los derechos fundamentales. Se trata de la primera metodología para la evaluación de impacto en los derechos fundamentales en materia de inteligencia artificial (EIDF) aplicada a casos concretos en Europa.
En un acto presidido por el presidente del Parlament de Catalunya, Josep Rull i Andreu, y la directora de la APDCAT, Meritxell Borràs i Solé, la Autoridad ha presentado este modelo para desarrollar soluciones de IA fiables y centradas en el ser humano , diseñado para concretar las nuevas obligaciones establecidas por el Reglamento de Inteligencia Artificial (RIA). Concretamente, el RIA obliga a realizar una EIDF cuando se utilice IA en un proyecto y esto pueda suponer un riesgo elevado para las personas. El objetivo de la EIDF es detectar estos riesgos y mitigarlos, para evitar posibles sesgos, discriminación, etc. Actualmente no existen directrices de las autoridades competentes a nivel europeo en ese ámbito.
Este modelo pionero se ha elaborado en el marco del grupo de trabajo de la red de delegados y delegadas de protección de datos de Cataluña 'DPD en xarxa' liderado por el profesor titular de Derecho Civil de la Universidad Politécnica de Turín, Alessandro Mantelero. Así, se ha desarrollado a partir de la interacción de los delegados y delegadas de protección de datos (DPD) de entidades públicas y privadas que lo integran, analizando soluciones de inteligencia artificial (IA) de proyectos de diversas entidades.
La diputada secretaria primera de la Mesa del Parlament, Glòria Freixa i Vilardell, y la directora de la APDCAT, Meritxell Borràs i Solé, han sido las encargadas de dar la bienvenida al acto. En su intervención, Borràs ha defendido la necesidad de un buen diseño y uso de la IA para evitar riesgos. Asimismo, la directora ha agradecido el esfuerzo de los DPD que han participado en la elaboración de esta metodología pionera, liderados por el profesor Alessandro Mantelero, y coordinados por la DPD y responsable de proyectos estratégicos de APDCAT, Joana Marí.
Borràs ha recordado que las autoridades de protección de datos tienen un papel muy relevante a la hora de supervisar los sistemas de inteligencia artificial, un rol que el RIA ha reforzado. En este marco, la directora ha pedido al Parlament y del Govern definir el marco legal catalán, que deberá hacer compatibles la competitividad y la defensa de los derechos de todos. "El modelo que hoy presentamos contribuirá a que Catalunya sea pionera en una investigación e investigación centrada en las personas", ha concluido Borràs.
Por su parte, el profesor Alessandro Mantelero, ha presentado la nueva metodología aplicada, que recoge los primeros casos trabajados. Se trata de cuatro casos reales en los que se ha evaluado el impacto en los derechos fundamentales en el uso de sistemas de IA. Los casos se enmarcan en ámbitos de actuación donde las soluciones de IA se utilizan cada vez más, y tienen mayor impacto en las personas. Son la educación (evaluación de los resultados del aprendizaje y predicción del abandono escolar), la gestión de personal (sistemas de apoyo a la toma de decisiones en la gestión de recursos humanos), el acceso a la asistencia sanitaria (tratamiento del cáncer basado en imágenes médicas) y los servicios de bienestar sociales (asistente de voz para personas mayores). Más adelante, a medida que se analicen casos reales nuevos en el marco de este grupo de trabajo, se publicarán nuevos resultados en 'DDP en xarxa'.
La metodología adoptada se desarrolla en tres fases, teniendo en cuenta el contexto y la tipología de personas expuestas al riesgo, el perjuicio potencial para los derechos fundamentales y las medidas de prevención y mitigación necesarias. La primera fase es la de planificación, definición de alcance e identificación de riesgos. Incluye la descripción del sistema de IA y su contexto de uso, teniendo en cuenta los riesgos intrínsecos (relacionados con el propio sistema) y los riesgos extrínsecos (relacionados con la interacción entre el sistema y el entorno en el que se implementa ). La segunda fase es la de análisis de riesgos, que debe ir más allá de una identificación general de las potenciales áreas de impacto y estimar el nivel de impacto sobre cada derecho o libertad. Y por último, la tercera fase es la de mitigación y gestión de riesgos. Sólo definiendo el nivel de riesgo antes y después de la adopción de las medidas de prevención y mitigación es posible demostrar que el riesgo se ha abordado de forma específica y eficaz.
El objetivo del trabajo es que contribuya al debate internacional sobre el modelo de evaluación del impacto en los derechos fundamentales, dado que aporta evidencias sobre cuestiones cruciales como las variables relevantes a tener en cuenta; la metodología para evaluar y crear índices de riesgo; el papel que pueden jugar los cuestionarios estándar y sus limitaciones; y el papel de los expertos en este tipo de evaluación. Así, este modelo puede servir de fuente de inspiración para organizaciones de Europa y de países no miembros de la UE que desean adoptar un enfoque basado en los derechos fundamentales de la IA, pero no disponen de un modelo de referencia probado, con casos concretos con los que comparar sus experiencias.
Nuevos roles y casos prácticos
La presentación se ha llevado a cabo en el marco de la jornada 'Inteligencia artificial y derechos fundamentales: una mirada más allá de la privacidad', que ha contado con la presencia de numerosas personas expertas en la materia.
En este sentido, el jefe de la Asesoría jurídica de la APDCAT, Xavier Urios Aparisi, ha abordado los nuevos roles y obligaciones que establece el RIA en cuanto a la minimización de los impactos del uso del IA.
Además, se han presentado los casos de uso en los que se ha aplicado la metodología sobre evaluación de impacto en derechos fundamentales, en una mesa moderada por la DPD y responsable de proyectos estratégicos de la APDCAT, Joana Marí Cardona. Además de Alessandro Mantelero, han participado Cristina Guzmán Álvarez, DPD de la Universidad Politécnica de Cataluña - BarcelonaTech (UPC); Esther Garcia Encinas, responsable de la Oficina de Privacidad de CaixaBank; Ruben Ortiz Uroz, DPD de la Universidad de Barcelona; y M. Ascensión Moro Cordero, jefe del Departamento de Gobierno Abierto y Coordinadora de Presidencia del Ayuntamiento de Sant Feliu de Llobregat.
Coincidiendo con la conmemoración del Día Internacional de la Protección de Datos, la Autoridad Catalana de Protección de Datos ha organizado en el Parlament de Catalunya la jornada 'Inteligencia artificial y derechos fundamentales: una mirada más allá de la privacidad', con la participación de personas expertas.