Hoy ha entrado finalmente en vigor el nuevo Reglamento de Inteligencia Artificial (AI Act), una medida legislativa destinada a regular el desarrollo y uso de la inteligencia artificial (IA) en la Unión Europea. Este hito implica que tanto los Estados miembro como las empresas que desarrollan y venden esta tecnología deben prepararse para cumplir con estas nuevas reglas. Si no lo hacen, podrían enfrentarse a sanciones significativas al desarrollar, vender y usar sistemas de IA con posibles riesgos en la UE.
Sin embargo, es importante destacar que la entrada en vigor no implica que sus reglas pasen a ser obligatorias, ya que la norma prevé una aplicación gradual que llega hasta el 2030. Lo primero que pasará a ser obligatorio es el listado de prácticas prohibidas (el 1 de febrero de 2025).
El Reglamento de IA tiene un enfoque de riesgo y reconoce cuatro categorías: (i) prohibiciones o riesgo inaceptable como, por ejemplo, la calificación social, (ii) alto riesgo, por ejemplo, sistemas que se utilicen para la puntuación crediticia o el acceso a determinados seguros; (iii) riego medio: por ejemplo, chatbots y (iv) riesgo bajo como, por ejemplo, un filtro de correo spam (sobre los que no impone ninguna obligación. Por fuera de estos casos y tras es lanzamiento de ChatGPT, se incorporó a la ley una “sub-pirámide” para regular los modelos de propósito general con o sin riesgo sistémico (imponiendo diferentes obligaciones).
Desde CECU ya hemos manifestado que el Reglamento no protege adecuadamente a las personas consumidoras, por cuanto presenta varias lagunas y fallos. En efecto, el alcance de la norma es muy limitado porque adopta una definición de IA de un alto nivel técnico, que deja afuera a la mayoría de los algoritmos que se utilizan hoy en día. Por ejemplo, el software Bosco, que determina quién tiene acceso a bono social de electricidad y sobre el que existe una batalla legal para acceder a su código fuente, no entra dentro de esta definición. A su vez, el referido enfoque “de riesgo” deja fuera a los algoritmos que afectan diariamente a las personas consumidoras, como son los de perfilado y personalización en línea o los sistemas de recomendación de las redes sociales. Por su parte, se establecen reglas insuficientes y confusas para los modelos de propósito general, sistemas de IA de propósito general (como el modelo GPT que da base a ChatGPT).
A pesar de ello, el texto final busca generar cambios positivos al incluir mayores requisitos técnicos para los sistemas de alto riesgo —como puede ser medidas para la gestión de riesgos, la gobernanza de datos para evitar sesgos o la supervisión humana—, la inclusión de ciertas reglas de transparencia para quienes desarrollan estos sistemas —pero con limitaciones respecto a usuarios que sean empresas privadas—, la posibilidad de presentar reclamaciones ante autoridades públicas contra un sistema de IA o de buscar reparación colectiva en caso de daño. Más aún, se incluyen líneas rojas -aunque no todas que se pedían desde la sociedad civil- respecto del uso de sistemas de IA que sean dañinos y que afectan los derechos de las personas, como puede ser la calificación social o sistemas que puedan manipular a las personas consumidoras.
Desde CECU seguiremos trabajando junto con otras organizaciones de la sociedad civil para cubrir las lagunas del Reglamento de IA y lograr la implementación más garantista y respetuosa con los derechos fundamentales de la ley.
Anabel Arias, responsable de derechos digitales, sostiene que: “En tal sentido, continuaremos presionando por un rol activo para la sociedad civil, la participación significativa de todos los que estén sujetos al uso de sistemas de IA, la prohibición del reconocimiento biométrico en lugares de acceso público, tanto en tiempo real como a posteriori, y el reconocimiento de emociones en todas sus formas, y el desarrollo de un registro de algoritmos más amplio para someter a estos sistemas a un verdadero escrutinio público y garantizar una mayor protección de las personas consumidoras”.
|