Las autoridades de protección de datos en el marco del Reglamento Europeo de Inteligencia Artificial
Las autoridades de protección de datos en el marco del Reglamento Europeo de Inteligencia Artificial
Tan solo cuatro días después de la publicación el pasado 12 de julio de 2024 del Reglamento (UE) 2024/1689, conocido como Reglamento de Inteligencia Artificial (en adelante, RIA), se adoptó por el Comité Europeo de Protección de Datos (CEPD) la Declaración 3/20241
Tan solo cuatro días después de la publicación el pasado 12 de julio de 2024 del Reglamento (UE) 2024/1689, conocido como Reglamento de Inteligencia Artificial (en adelante, RIA), se adoptó por el Comité Europeo de Protección de Datos (CEPD) la Declaración 3/20241.
Esta Declaración versa sobre el papel que desarrollarán las Autoridades de Control de Protección de Datos (en adelante, «Autoridades de Control») en cuanto a la aplicación del Reglamento Europeo de Inteligencia Artificial e incluye algunas recomendaciones del CEPD al respecto.
En esta Declaración, el CEPD menciona que el RIA busca garantizar un elevado nivel de protección de los derechos fundamentales que figuran en la Carta de Derechos Fundamentales de la Unión Europea, lo que incluye la privacidad y la protección de datos personales. Así, señala el CEPD, la aplicación del Reglamento y de la legislación relevante en materia de protección de datos de carácter personal debe ser considerada no solo de forma complementaria, sino también como instrumentos normativos que se refuerzan mutuamente. En este sentido, el CEPD recuerda que la normativa europea en materia de protección de datos es directamente aplicable al tratamiento de datos personales realizado por un sistema de Inteligencia Artificial.
En su Declaración, el CEPD recomienda que:
- Los Estados miembros designen a las Autoridades de Control como como autoridades de vigilancia del mercado (MSA, por sus siglas en inglés), de conformidad con el Reglamento de Inteligencia Artificial, para todos los sistemas de IA de alto riesgo, pero en particular para aquellos utilizados para la aplicación de la ley, la gestión de fronteras, la administración de justicia y los procesos democráticos.
- Las Autoridades de Control, actuando como MSA, sean designadas como punto de contacto único para el público.
- Establecer un robusto marco de cooperación entre MSAs y otras autoridades de supervisión en materia de IA que incluya claros procedimientos para facilitar la coordinación.
- Incrementar los recursos financieros y humanos dotados a las Autoridades de Control, dadas las nuevas funciones y poderes que se les transfieren en cuanto a la supervisión en materia de IA.
- En relación con los modelos de uso general, el CEPD hace referencia a la falta de mecanismos de coordinación entre las Autoridades de Control y Oficina de IA, ya que las Autoridades de Control deben participar en la supervisión de los modelos de IA de uso general cuando estos traten datos personales, sin perjuicio de que la labor de supervisión de estos modelos recaiga sobre la propia Oficina de IA.
EDPB | European Data Protection Board (europa.eu)
Anexo III: Sistemas de IA de alto riesgo contemplados en el artículo 6, apartado 2, de la Ley de Inteligencia Artificial de la UE (artificialintelligenceact.eu)
Carmen López Belda
Govertis, parte de Telefónica Tech.