La Autoridad Catalana de Protección de Datos ha publicado la Recomendación 1/2023, para advertir a la Generalitat, los municipios, las escuelas, las universidades y el resto de entidades de su ámbito de actuación de las dudas existentes en Europa que esta herramienta de inteligencia artificial cumpla con el RGPD.
La Autoridad Catalana de Protección de Datos (APDCAT) ha publicado la Recomendación 1/2023, para advertir a las entidades y organismos de su ámbito de actuación sobre los riesgos de utilizar la herramienta de inteligencia artificial ChatGPT, por lo que se refiere al cumplimiento de los requerimientos en materia de protección de datos. El documento se dirige a la Generalitat, los ayuntamientos, las escuelas y universidades públicas y privadas de Cataluña y los colegios profesionales, entre otros, y recomienda que no se incorpore la herramienta ChatGPT en el ejercicio de funciones públicas y la prestación de servicios públicos, cuando se traten datos personales, hasta que el Comité Europeo de Protección de Datos se pronuncie al respecto.
La recomendación recoge la preocupación manifiesta y creciente en las últimas semanas por el impacto que el uso de la inteligencia artificial, y más singularmente el servicio ChatGPT, puede tener en los derechos y libertades de las personas físicas afectadas.
Entre otras cosas, se refiere al anuncio del Comité Europeo de Protección de Datos de crear un grupo de trabajo para cooperar e intercambiar información sobre acciones que las autoridades de protección de datos pueden emprender en relación con esta cuestión, de acuerdo con el principio de coherencia recogido en el Reglamento general de protección de datos. Esto, a raíz del bloqueo de la herramienta acordado por el Garante per la Protezione dei Dati Personali, la autoridad de control en materia de protección de datos en Italia.
La APDCAT advierte que a día de hoy el uso de ChatGPT genera importantes dudas sobre la información de carácter personal que trata, tanto la de las personas que lo utilizan directamente como la de terceros que se puede estar volcando. Esto puede incluir el tratamiento de información sensible o relativa a colectivos vulnerables como menores de edad, sin control y sin una base jurídica adecuada.
La APDCAT también alerta de las dudas por la falta de control que tienen las personas afectadas sobre este tratamiento, así como sobre la imposibilidad práctica de ejercer los derechos de autodeterminación informativa (acceso, rectificación, supresión, etc.). También advierte del claro desconocimiento de las condiciones de seguridad, los plazos de conservación de los datos o la comunicación de datos a terceros, entre otras cuestiones.
IA respetuosa con la privacidad
En la recomendación, la APDCAT reconoce la inteligencia artificial como una herramienta de apoyo a la toma de decisiones en cualquier ámbito, pero al mismo tiempo reclama que su desarrollo respete el marco normativo en materia de protección de datos y no suponga un agravio para a los derechos y libertades de la ciudadanía.
En este sentido, recuerda que actualmente la tecnología permite dibujar perfiles y patrones a partir de datos personales, que pueden servir para influir directamente en las personas, y alerta de que ante el uso masivo e intensivo de datos es necesario encontrar las herramientas adecuadas para proteger a los derechos y libertades.