Siglo XXI. Diario digital independiente, plural y abierto. Noticias y opinión
Viajes y Lugares Tienda Siglo XXI Grupo Siglo XXI
21º ANIVERSARIO
Fundado en noviembre de 2003
Opinión
Etiquetas | Ley | Inteligencia artificial | Unión Europea | Peligros | ChatGPT
El acuerdo logrado en la Unión Europea, en relación con la ley de la IA, es un hito histórico que será aprobado, muy previsiblemente, por el Parlamento y el Consejo Europeos

Los peligros de la inteligencia artificial

|

En principio, está muy bien esta regulación de los usos de la IA, pero persisten numerosos interrogantes. Se ha buscado, con esta ley pionera a nivel mundial, un equilibrio entre los intereses de las empresas y la protección de la privacidad de los ciudadanos y también de su seguridad, en muchos sentidos. Si bien la universalización de la utilización del ChatGPT y de otras tecnologías de inteligencia artificial, por parte de cientos de miles o millones de empresas en todo el mundo, y su uso también por una considerable parte de la población mundial en el presente y el futuro, plantea la necesidad de hacer frente a riesgos evidentes: suplantación de identidades, toda clase de engaños, manipulación de la información y el conocimiento, noticias falsas, robos, terrorismo, delitos cibernéticos, todo tipo de discriminaciones, marginación de clases sociales desfavorecidas, robo de datos de historiales médicos, concentración de poder, delitos falsos, acusaciones falsas, conflictos o guerras provocadas por la inteligencia artificial, etcétera.


Es cierto que para evitar todos estos peligros y otros que, de momento, parece que son imprevisibles, se toman medidas y establecen sanciones en esta nueva ley de IA de la Unión Europea. Pero, pueden ser insuficientes, por varias razones ya expuestas. Por ejemplo, con los sistemas de vigilancia biométrica, no se permitirá la categorización por creencias políticas o el reconocimiento de emociones en el trabajo o en la educación. De hecho, los sistemas biométricos estarán limitados y requerirán autorización judicial. Respecto a los sistemas de Inteligencia Artificial generativa se podrán utilizar con respeto a los derechos de autor.Lo que puede ser objeto de más análisis y argumentaciones es la cuantía de las multas para las empresas, que incumplan las medidas previstas en la citada ley. Habrá multas de 7,5 millones de euros o el 1,5 % del volumen de negocio y también para infracciones más graves y empresas mayores, sanciones que pueden alcanzar los 35 millones de euros o el 7% del volumen de negocio. Esto creo que, en muchos casos, no será obstáculo, para que algunas grandes empresas o compañías tecnológicas, prefieran incumplir esta ley, porque los beneficios de hacerlo compensan de sobra la cuantía económica de las sanciones. Es algo que ya está sucediendo en el ámbito de internet y es evidente que con la IA seguimos en el mismo ámbito digital.


Hace falta más transparencia en su regulación, para que no se genere desconfianza y resistencia a su aplicación, en el campo empresarial y también por parte de los ciudadanos. Es necesario que se desarrollen algoritmos imparciales y conjuntos de datos, que respondan a criterios de objetividad. Además, la preocupación por la privacidad y la seguridad de grandes cantidades de datos personales, es algo a garantizar de una forma real y efectiva. En cuanto a los dilemas éticos es preciso inculcar valores éticos a los sistemas de IA, para evitar impactos sociales negativos.

No se debe olvidar que las amenazas para la seguridad de los países son evidentes: auge del armamento autónomo y sin control, estados delincuentes, etc. Si se piensa en la concentración de poder lo que se necesita es descentralización y desarrollo colaborativo de este tipo de tecnología digital.


Además, la dependencia de la IA puede ser inmensa, como ya lo es para muchas personas la de los móviles, y puede conducir a una considerable pérdida de creatividad y capacidad de pensamiento crítico e intuitivo. Se puede producir pérdida de puestos de trabajo y la desigualdad económica incrementarse, con aumento de la brecha salarial y reducción significativa de las oportunidades de movilidad social en los países. Esto afectará especialmente a los trabajadores poco cualificados.

La IA puede causar una disminución de la empatía, las conexiones humanas y las habilidades sociales. La desinformación y la manipulación de la opinión pública, por parte de la Inteligencia Artificial controlada por los poderes fácticos es algo muy probable, si no se impulsan y aprueban medidas eficaces para evitarlo o impedirlo. En todo caso, lo que debe ser esencial es poner en la palestra los valores o prioridades humanas, frente a intereses comerciales de toda clase, que no los toman en consideración y no los respetan. Los Derechos Humanos no son negociables.


Amnistía Internacional ya ha informado y alertado de que sistemas automatizados pueden decidir, si una persona puede recibir prestaciones sociales, atención sanitaria o incluso puede ser acusada falsamente de haber cometido un delito. Estos sistemas pueden ser usados para recortar gastos sociales que son necesarios.

Los peligros de la inteligencia artificial

El acuerdo logrado en la Unión Europea, en relación con la ley de la IA, es un hito histórico que será aprobado, muy previsiblemente, por el Parlamento y el Consejo Europeos
José Manuel López García
lunes, 11 de diciembre de 2023, 09:54 h (CET)

En principio, está muy bien esta regulación de los usos de la IA, pero persisten numerosos interrogantes. Se ha buscado, con esta ley pionera a nivel mundial, un equilibrio entre los intereses de las empresas y la protección de la privacidad de los ciudadanos y también de su seguridad, en muchos sentidos. Si bien la universalización de la utilización del ChatGPT y de otras tecnologías de inteligencia artificial, por parte de cientos de miles o millones de empresas en todo el mundo, y su uso también por una considerable parte de la población mundial en el presente y el futuro, plantea la necesidad de hacer frente a riesgos evidentes: suplantación de identidades, toda clase de engaños, manipulación de la información y el conocimiento, noticias falsas, robos, terrorismo, delitos cibernéticos, todo tipo de discriminaciones, marginación de clases sociales desfavorecidas, robo de datos de historiales médicos, concentración de poder, delitos falsos, acusaciones falsas, conflictos o guerras provocadas por la inteligencia artificial, etcétera.


Es cierto que para evitar todos estos peligros y otros que, de momento, parece que son imprevisibles, se toman medidas y establecen sanciones en esta nueva ley de IA de la Unión Europea. Pero, pueden ser insuficientes, por varias razones ya expuestas. Por ejemplo, con los sistemas de vigilancia biométrica, no se permitirá la categorización por creencias políticas o el reconocimiento de emociones en el trabajo o en la educación. De hecho, los sistemas biométricos estarán limitados y requerirán autorización judicial. Respecto a los sistemas de Inteligencia Artificial generativa se podrán utilizar con respeto a los derechos de autor.Lo que puede ser objeto de más análisis y argumentaciones es la cuantía de las multas para las empresas, que incumplan las medidas previstas en la citada ley. Habrá multas de 7,5 millones de euros o el 1,5 % del volumen de negocio y también para infracciones más graves y empresas mayores, sanciones que pueden alcanzar los 35 millones de euros o el 7% del volumen de negocio. Esto creo que, en muchos casos, no será obstáculo, para que algunas grandes empresas o compañías tecnológicas, prefieran incumplir esta ley, porque los beneficios de hacerlo compensan de sobra la cuantía económica de las sanciones. Es algo que ya está sucediendo en el ámbito de internet y es evidente que con la IA seguimos en el mismo ámbito digital.


Hace falta más transparencia en su regulación, para que no se genere desconfianza y resistencia a su aplicación, en el campo empresarial y también por parte de los ciudadanos. Es necesario que se desarrollen algoritmos imparciales y conjuntos de datos, que respondan a criterios de objetividad. Además, la preocupación por la privacidad y la seguridad de grandes cantidades de datos personales, es algo a garantizar de una forma real y efectiva. En cuanto a los dilemas éticos es preciso inculcar valores éticos a los sistemas de IA, para evitar impactos sociales negativos.

No se debe olvidar que las amenazas para la seguridad de los países son evidentes: auge del armamento autónomo y sin control, estados delincuentes, etc. Si se piensa en la concentración de poder lo que se necesita es descentralización y desarrollo colaborativo de este tipo de tecnología digital.


Además, la dependencia de la IA puede ser inmensa, como ya lo es para muchas personas la de los móviles, y puede conducir a una considerable pérdida de creatividad y capacidad de pensamiento crítico e intuitivo. Se puede producir pérdida de puestos de trabajo y la desigualdad económica incrementarse, con aumento de la brecha salarial y reducción significativa de las oportunidades de movilidad social en los países. Esto afectará especialmente a los trabajadores poco cualificados.

La IA puede causar una disminución de la empatía, las conexiones humanas y las habilidades sociales. La desinformación y la manipulación de la opinión pública, por parte de la Inteligencia Artificial controlada por los poderes fácticos es algo muy probable, si no se impulsan y aprueban medidas eficaces para evitarlo o impedirlo. En todo caso, lo que debe ser esencial es poner en la palestra los valores o prioridades humanas, frente a intereses comerciales de toda clase, que no los toman en consideración y no los respetan. Los Derechos Humanos no son negociables.


Amnistía Internacional ya ha informado y alertado de que sistemas automatizados pueden decidir, si una persona puede recibir prestaciones sociales, atención sanitaria o incluso puede ser acusada falsamente de haber cometido un delito. Estos sistemas pueden ser usados para recortar gastos sociales que son necesarios.

Noticias relacionadas

El día de Pentecostés, la Iglesia celebra el cumplimiento de la promesa que Cristo había hecho a los Apóstoles cuando resucitó: sopló sobre ellos y les dijo: «Recibid el Espíritu Santo» (Juan 20,22). Lo recibieron en ese momento, pero de algún modo también hubo una venida más “pública” del Espíritu Santo el día de Pentecostés de un modo solemne y con manifestaciones externas. Así culmina el misterio pascual.

Realmente, la función de la filosofía se desarrolla, como un saber crítico de segundo grado, que analiza los contenidos de las diversas ciencias. Es un saber que se interesa por toda la realidad y el presente. Ya en vida de su creador Gustavo Bueno, su materialismo demostró una potencia explicativa extraordinaria, superior a la de otras corrientes o sistemas filosóficos.

Hay cosas cómicas que hay que tomar muy en serio. Son gansadas que retratan nuestro mundo. Representan el ombliguismo que nos rodea. El término es magistral: define aquello que cree está en el centro del cuerpo (del universo), sin reparar que su función se volvió inútil hace ya tiempo.

 
Quiénes somos  |   Sobre nosotros  |   Contacto  |   Aviso legal  |   Suscríbete a nuestra RSS Síguenos en Linkedin Síguenos en Facebook Síguenos en Twitter   |  
© 2024 Diario Siglo XXI. Periódico digital independiente, plural y abierto | Director: Guillermo Peris Peris
© 2024 Diario Siglo XXI. Periódico digital independiente, plural y abierto