Siglo XXI. Diario digital independiente, plural y abierto. Noticias y opinión
Viajes y Lugares Tienda Siglo XXI Grupo Siglo XXI
21º ANIVERSARIO
Fundado en noviembre de 2003
Display
Etiquetas | Inteligencia artificial | ChatGPT | UNESCO | Protección de Datos

​La Unesco pide la implementación inmediata de un marco ético global sobre la inteligencia artificial

Pide que se actúe para garantizar a las personas mayor protección, transparencia, capacidad de actuar y control de sus datos personales
Redacción
lunes, 3 de abril de 2023, 11:42 h (CET)

Presentación1

La inteligencia artificial, según muestran programas lanzados al mercado recientemente, comporta riesgos para la privacidad y otros derechos de las personas, así como para la democracia, por lo que la Unesco aboga por normas nacionales que establezcan garantías en defensa de los ciudadanos y el ambiente. Imagen: Xataka


PARÍS – Tras el pedido de más de 1000 profesionales de la tecnología para que se haga una pausa en el desarrollo de la inteligencia artificial (IA), incluido el nuevo modelo de lenguaje Chat GPT, la Unesco ha solicitado la implementación inmediata del marco ético global sobre esa materia. “El mundo necesita reglas éticas para la inteligencia artificial, es el desafío de nuestro tiempo. La Recomendación de la Unesco sobre la ética de la IA establece el marco normativo apropiado”, dijo Audrey Azoulay, directora general de esa Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura.


La Unesco sostiene que ese marco normativo global, adoptado por unanimidad por los 193 Estados miembros en noviembre de 2021, proporciona las garantías necesarias. “Ahora es urgente que todos traduzcan este marco en estrategias y regulaciones nacionales. Debemos traducir los compromisos en acción”, dijo Azoulay.


La Recomendación se describe como primer marco normativo global para el uso ético de la IA, a modo de hoja de ruta para los países, que describe cómo amplificar los beneficios y reducir los riesgos que conlleva esta tecnología. Incluye acciones políticas en 10 áreas específicas: Evaluación de impacto ético, Gobernanza y rectoría éticas, Política de datos, Desarrollo y cooperación internacional, Medio ambiente y ecosistemas, Género, Cultura, Educación e investigación, Economía y trabajo, y Salud y bienestar social.


La Recomendación pide que se actúe más allá de lo que hacen las empresas tecnológicas y los gobiernos para garantizar a las personas mayor protección, transparencia, capacidad de actuar y control de sus datos personales. Afirma que todos los individuos deberían poder acceder a sus registros de datos personales o incluso borrarlos. También incluye acciones para mejorar la protección de los datos y el conocimiento y derecho del individuo a controlar sus propios datos. Además, aumenta la capacidad de los organismos reguladores de todo el mundo para hacerla cumplir.


En segundo lugar, prohíbe explícitamente el uso de sistemas de IA para la calificación social y la vigilancia masiva. Destaca que este tipo de tecnologías son muy invasivas, vulneran los derechos humanos y las libertades fundamentales, y se utilizan de forma generalizada.


La recomendación subraya que, a la hora de desarrollar marcos normativos, los Estados tengan en cuenta que la responsabilidad última y la rendición de cuentas deben recaer siempre en los seres humanos, y que no se debe otorgar personalidad jurídica a las tecnologías de IA por sí mismas.


También sienta bases de las herramientas para ayudar a países y empresas a evaluar el impacto de esos sistemas en las personas, la sociedad y el medio ambiente, y anima a los Estados a que consideren añadir un funcionario independiente de ética de la IA u otro mecanismo similar de seguimiento.


Subraya que los actores de la IA deben favorecer métodos eficaces en cuanto a datos, energía y recursos que ayuden a garantizar que se convierta en una herramienta destacada en la lucha contra el cambio climático, y en el tratamiento de los problemas medioambientales.


Pide a los gobiernos que evalúen el impacto medioambiental directo e indirecto a lo largo del ciclo de vida del sistema de IA, lo que incluye su huella de carbono, el consumo de energía y el impacto ambiental de la extracción de materias primas para apoyar la fabricación de tecnologías.


La Unesco se declaró especialmente preocupada por las cuestiones éticas que plantean estas innovaciones en los campos de la lucha contra la discriminación y los estereotipos, incluidos los temas de género, la fiabilidad de la información, la privacidad y la protección de los datos, los derechos humanos y ambientales.


Además, considera que la autorregulación de la industria no es suficiente para evitar estos daños éticos, y aboga por establecer normas para que, cuando se produzcan daños, existan mecanismos de rendición de cuentas y reparación que sean fáciles de solicitar por parte de las personas interesadas. 


Más de 40 países de todas las regiones del mundo ya están trabajando con la Unesco para desarrollar estas salvaguardas de IA basadas en la Recomendación.


El nuevo llamado de la Unesco llegó dos días después de que un millar de profesionales y empresarios de las nuevas tecnologías firmasen un llamado a hacer una pausa de seis meses en la investigación sobre IA aún más potentes que ChatGPT 4, el modelo recién lanzado por la firma estadounidense OpenAI.


Los firmantes advirtieron “grandes riesgos para la humanidad” en el nuevo modelo, y abogaron por “sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, y técnicas que ayuden a distinguir entre lo real y lo artificial”.


Asimismo, defendieron que existan “instituciones capaces de hacer frente a la dramática perturbación económica y política (especialmente para la democracia) que causará la IA”, sin los controles adecuados.


Entre los firmantes de la petición figuraron el magnate de las firmas Space X, Tesla y Twitter, Elon Musk; el cofundador del gigante Apple, Steve Wozniak, y el escritor e historiador israelí Yuval Noah Hariri.


A-E/HM - Fuente: IPS

Noticias relacionadas

"La inteligencia artificial es el presente y futuro de la tecnología al servicio del usuario en que una máquina pretende realizar similares habilidades que las personas desde la perspectiva del conocimiento y el aprendizaje. Nos encontramos en la era del manejo de grandes cantidades de datos y de algoritmos al servicio de la sociedad. Todo ello encaja en el fenómeno de la transformación digital, en la era de internet".

El mundo digital sigue evolucionando rápidamente, y con él también lo hacen las amenazas cibernéticas. A medida que las empresas dependen cada vez más de la tecnología para operar, los ciberdelincuentes también refinan sus técnicas, creando un entorno de amenazas que podría resultar devastador si no se toman las precauciones necesarias.

Hubo un tiempo en que las ciberamenazas estaban claramente definidas: por un lado, los ciberdelincuentes motivados por el afán de lucro, y por otro, los actores estatales centrados en campañas de ciberespionaje o ataques geopolíticos. Sin embargo, esta frontera tradicional ha dado lugar a una nueva era de ciberamenazas en la que el ransomware se convierte en un arma tanto para la monetización como para el encubrimiento de operaciones de espionaje.

 
Quiénes somos  |   Sobre nosotros  |   Contacto  |   Aviso legal  |   Suscríbete a nuestra RSS Síguenos en Linkedin Síguenos en Facebook Síguenos en Twitter   |  
© 2024 Diario Siglo XXI. Periódico digital independiente, plural y abierto | Director: Guillermo Peris Peris
© 2024 Diario Siglo XXI. Periódico digital independiente, plural y abierto