Siglo XXI. Diario digital independiente, plural y abierto. Noticias y opinión
Viajes y Lugares Tienda Siglo XXI Grupo Siglo XXI
21º ANIVERSARIO
Fundado en noviembre de 2003
Display
Etiquetas | Inteligencia artificial | ChatGPT | UNESCO | Protección de Datos

​La Unesco pide la implementación inmediata de un marco ético global sobre la inteligencia artificial

Pide que se actúe para garantizar a las personas mayor protección, transparencia, capacidad de actuar y control de sus datos personales
Redacción
lunes, 3 de abril de 2023, 11:42 h (CET)

Presentación1

La inteligencia artificial, según muestran programas lanzados al mercado recientemente, comporta riesgos para la privacidad y otros derechos de las personas, así como para la democracia, por lo que la Unesco aboga por normas nacionales que establezcan garantías en defensa de los ciudadanos y el ambiente. Imagen: Xataka


PARÍS – Tras el pedido de más de 1000 profesionales de la tecnología para que se haga una pausa en el desarrollo de la inteligencia artificial (IA), incluido el nuevo modelo de lenguaje Chat GPT, la Unesco ha solicitado la implementación inmediata del marco ético global sobre esa materia. “El mundo necesita reglas éticas para la inteligencia artificial, es el desafío de nuestro tiempo. La Recomendación de la Unesco sobre la ética de la IA establece el marco normativo apropiado”, dijo Audrey Azoulay, directora general de esa Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura.


La Unesco sostiene que ese marco normativo global, adoptado por unanimidad por los 193 Estados miembros en noviembre de 2021, proporciona las garantías necesarias. “Ahora es urgente que todos traduzcan este marco en estrategias y regulaciones nacionales. Debemos traducir los compromisos en acción”, dijo Azoulay.


La Recomendación se describe como primer marco normativo global para el uso ético de la IA, a modo de hoja de ruta para los países, que describe cómo amplificar los beneficios y reducir los riesgos que conlleva esta tecnología. Incluye acciones políticas en 10 áreas específicas: Evaluación de impacto ético, Gobernanza y rectoría éticas, Política de datos, Desarrollo y cooperación internacional, Medio ambiente y ecosistemas, Género, Cultura, Educación e investigación, Economía y trabajo, y Salud y bienestar social.


La Recomendación pide que se actúe más allá de lo que hacen las empresas tecnológicas y los gobiernos para garantizar a las personas mayor protección, transparencia, capacidad de actuar y control de sus datos personales. Afirma que todos los individuos deberían poder acceder a sus registros de datos personales o incluso borrarlos. También incluye acciones para mejorar la protección de los datos y el conocimiento y derecho del individuo a controlar sus propios datos. Además, aumenta la capacidad de los organismos reguladores de todo el mundo para hacerla cumplir.


En segundo lugar, prohíbe explícitamente el uso de sistemas de IA para la calificación social y la vigilancia masiva. Destaca que este tipo de tecnologías son muy invasivas, vulneran los derechos humanos y las libertades fundamentales, y se utilizan de forma generalizada.


La recomendación subraya que, a la hora de desarrollar marcos normativos, los Estados tengan en cuenta que la responsabilidad última y la rendición de cuentas deben recaer siempre en los seres humanos, y que no se debe otorgar personalidad jurídica a las tecnologías de IA por sí mismas.


También sienta bases de las herramientas para ayudar a países y empresas a evaluar el impacto de esos sistemas en las personas, la sociedad y el medio ambiente, y anima a los Estados a que consideren añadir un funcionario independiente de ética de la IA u otro mecanismo similar de seguimiento.


Subraya que los actores de la IA deben favorecer métodos eficaces en cuanto a datos, energía y recursos que ayuden a garantizar que se convierta en una herramienta destacada en la lucha contra el cambio climático, y en el tratamiento de los problemas medioambientales.


Pide a los gobiernos que evalúen el impacto medioambiental directo e indirecto a lo largo del ciclo de vida del sistema de IA, lo que incluye su huella de carbono, el consumo de energía y el impacto ambiental de la extracción de materias primas para apoyar la fabricación de tecnologías.


La Unesco se declaró especialmente preocupada por las cuestiones éticas que plantean estas innovaciones en los campos de la lucha contra la discriminación y los estereotipos, incluidos los temas de género, la fiabilidad de la información, la privacidad y la protección de los datos, los derechos humanos y ambientales.


Además, considera que la autorregulación de la industria no es suficiente para evitar estos daños éticos, y aboga por establecer normas para que, cuando se produzcan daños, existan mecanismos de rendición de cuentas y reparación que sean fáciles de solicitar por parte de las personas interesadas. 


Más de 40 países de todas las regiones del mundo ya están trabajando con la Unesco para desarrollar estas salvaguardas de IA basadas en la Recomendación.


El nuevo llamado de la Unesco llegó dos días después de que un millar de profesionales y empresarios de las nuevas tecnologías firmasen un llamado a hacer una pausa de seis meses en la investigación sobre IA aún más potentes que ChatGPT 4, el modelo recién lanzado por la firma estadounidense OpenAI.


Los firmantes advirtieron “grandes riesgos para la humanidad” en el nuevo modelo, y abogaron por “sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, y técnicas que ayuden a distinguir entre lo real y lo artificial”.


Asimismo, defendieron que existan “instituciones capaces de hacer frente a la dramática perturbación económica y política (especialmente para la democracia) que causará la IA”, sin los controles adecuados.


Entre los firmantes de la petición figuraron el magnate de las firmas Space X, Tesla y Twitter, Elon Musk; el cofundador del gigante Apple, Steve Wozniak, y el escritor e historiador israelí Yuval Noah Hariri.


A-E/HM - Fuente: IPS

Noticias relacionadas

El 58% de las personas con discapacidad que ya utilizan la inteligencia artificial creen que esta tecnología podría agravar la brecha digital que sufren. Así se desprende del informe ‘La inteligencia artificial desde la perspectiva de las personas con discapacidad’, elaborado por Randstad Research y Fundación Randstad.

Los responsables tecnológicos de las empresas siguen enfrentándose a distintos retos cuando se trata de proteger el teletrabajo, incluyendo el uso de los dispositivos -PCs, portátiles, tablets y smart phones- no supervisados. Aunque ocho de cada diez padres trabajadores en España (el 82%) consideran que el modelo híbrido ayuda a conciliar vida laboral y familiar, el 86% han permitido a sus hijos usar dispositivos de teletrabajo en los últimos seis meses. 

Según un estudio, el 73% de los encuestados admite haber experimentado algún fallo tecnológico en un momento clave, como pueden ser las fiestas que se aproximan. Entre los fallos más temidos, el 45% asegura que quedarse sin batería en el móvil es su mayor preocupación en ocasiones especiales, como citas amorosas, mudanzas, entrevistas de trabajo, o incluso el nacimiento de un hijo.

 
Quiénes somos  |   Sobre nosotros  |   Contacto  |   Aviso legal  |   Suscríbete a nuestra RSS Síguenos en Linkedin Síguenos en Facebook Síguenos en Twitter   |  
© 2024 Diario Siglo XXI. Periódico digital independiente, plural y abierto | Director: Guillermo Peris Peris
© 2024 Diario Siglo XXI. Periódico digital independiente, plural y abierto