L’Autoritat Catalana de Protecció de Dades (APDCAT) i l'Autoritat Nacional de Protecció de Dades del Brasil (ANPD) han signat un memoràndum d’entesa per col·laborar en el disseny, implementació i promoció d'eines que garanteixin el desenvolupament de sistemes d'intel·ligència artificial (SIA) respectuosos amb els drets fonamentals.
En el marc de la 47a Assemblea Global de Privacitat, que se celebra a Seül, la directora de l'APDCAT, Meritxell Borràs i Solé, el president de l'ANPD, Waldemar Gonçalves, han subscrit un conjunt de compromisos per compartir informació estratègica i impulsar projectes conjunts en matèria d'intel·ligència artificial (IA). En concret, per disposar d’espais comuns per a l'intercanvi d'experiències per millorar la protecció dels drets fonamentals en matèria d’IA.
"El punt principal de l'acord és la col·laboració per a la implementació del model català d'identificació i mitigació de riscos als drets fonamentals en el desenvolupament de sistemes d'IA com a referència al Brasil. La metodologia és pionera a Europa i va ser desenvolupada per l'APDCAT", ha dit Waldemar Gonçalves, referint-se a FRIA, acrònim d’Avaluació d'Impacte dels Drets Fonamentals, en anglès.
Per la seva banda, la directora de l’APDCAT ha recordat que a partir de l'agost del 2026 l'avaluació d'impacte sobre els drets fonamentals serà obligatòria per als projectes d'IA que presentin alt risc a Europa. "L'aliança amb l'ANPD, per tant, permetrà promoure la metodologia al Brasil, compartint nous casos d'ús i resultats", ha explicat.
El model FRIA català, al Brasil
Concretament, les dues parts col·laboraran per la implementació del model FRIA català per una IA confiable com a model de referència en els seus àmbits d’actuació. Es tracta d’una metodologia pionera a Europa, impulsada per l’APDCAT en el marc de la comunitat ‘DPD en xarxa’, i en col·laboració amb el professor i expert Alessandro Mantelero. Serveix per guiar els desenvolupadors de SIA a l’hora d’identificar possibles riscos per als drets fonamentals i com mitigar-los, i s’ha desenvolupat aplicada a casos concrets que serveixen d’exemple. L’acord que ara s’ha subscrit servirà per promoure la metodologia catalana també entre les organitzacions, empreses i entitats del Brasil, i per compartir els nous casos d’ús en què es pugui aplicar, i els resultats derivats del seu ús.
Des de la seva presentació oficial al Parlament de Catalunya el 28 de gener, l’APDCAT ha exportat el model FRIA català perquè esdevingui un referent nacional i internacionalment a l’hora de guiar els desenvolupadors de sistemes d’IA perquè els seus productes i serveis respectin els drets fonamentals i siguin confiables. En aquest sentit, l’Autoritat l’ha presentat i promogut durant tot aquest any a congressos, xarxes i fòrums d’arreu, com la Xarxa Iberoamericana de Protecció de Dades, l’Spring Conference, i països com Itàlia, Brasil, Colòmbia, Geòrgia i Costa Rica. Fruit d’aquest treball, l’APDCAT i l’Autoritat Basca de Protecció de Dades e dades van signar el passat mes de juny un acord per promoure el model català entre les entitats del País Basc, i també l’Autoritat de Protecció de Dades de Croàcia l’ha traduït al seu idioma i la recomana entre les entitats del seu àmbit d’actuació.
Entorns de proves per una IA confiable
D’altra banda, l’acord servirà per brindar suport tècnic i intercanviar coneixements i experiències pel que fa al desplegament de sandboxes regulatoris en IA. Són espais controlats de proves perquè les autoritats competents i els proveïdors de SIAs treballin conjuntament en la definició de bones pràctiques en l’ús d’IA abans de sortir al mercat. L’objectiu és que els projectes d’IA siguin segurs, confiables i respectin els drets fonamentals. Així, els sandboxes permeten treballar en casos concrets de manera supervisada, durant un temps determinat i sota unes condicions concretes. I aquests projectes concrets han de servir per guiar i ser un referent per desenvolupar projectes amb IA d’acord amb la normativa vigent, especialment per petites i mitjanes empreses, emprenedors i empreses emergents.
A Europa, el Reglament d’Intel·ligència Artificial (RIA) estableix l’obligació que les autoritats competents de tots els estats membre proporcionin sandboxes regulatoris en IA en l’àmbit nacional, regional i local a partir de l’agost del 2026.
L’objectiu és millorar la seguretat jurídica, donar suport a l’intercanvi de bones pràctiques, fomentar la innovació i la competitivitat, així com facilitar el desenvolupament d’un ecosistema d’IA, contribuir a un aprenentatge normatiu basat en dades contrastades, i facilitar i accelerar l’accés al mercat dels sistemes d’IA, en particular pel que fa a pimes i empreses emergents.
En aquest sentit, el passat mes de juny l’ANPD va obrir la convocatòria per a la participació en un Sandbox regulatori pilot en Intel·ligència Artificial i Protecció de Dades al Brasil, amb l’objectiu d'experimentar amb tècniques i tecnologies innovadores o models de negoci.
Programes i investigacions conjuntes
Igualment, el memoràndum preveu desenvolupar programes d'educació, formació i sensibilització en matèria de protecció de dades personals, així com promoure estudis i investigacions conjuntes, especialment pel que fa a la intel·ligència artificial i la privacitat. Finalment, les parts intercanviaran informació relativa a bones pràctiques en matèria de polítiques de privacitat i protecció de dades personals, amb l’objectiu de millorar la defensa dels drets fonamentals de la ciutadania.
En el marc de la 47a Assemblea Global de Privacitat, l’Autoritat Catalana de Protecció de Dades i l'Autoritat Nacional de Protecció de Dades del Brasil han signat un memoràndum d’entesa per compartir i impulsar eines, entorns de proves i models que serveixin de garantia a l'hora de desenvolupar projectes amb intel·ligència artificial