Siglo XXI. Diario digital independiente, plural y abierto. Noticias y opinión
Viajes y Lugares Tienda Siglo XXI Grupo Siglo XXI
21º ANIVERSARIO
Fundado en noviembre de 2003
Portada
Etiquetas

OpenAI retira las advertencias "innecesarias" sobre contenido en ChatGPT

Agencias
viernes, 14 de febrero de 2025, 10:09 h (CET)

OpenAI retira las advertencias

MADRID, 14 (Portaltic/EP)
OpenAI está realizando cambios en la moderación de las peticiones que los usuarios introducen en su 'chatbot' ChatGPT que han llevado a retirar las advertencias naranjas que notifican de un contenido que puede violar sus políticas.

La compañía tecnológica ha decidido retirar "muchas advertencias innecesarias en la interfaz de usuario", que hasta ahora notificaban de peticiones sobre contenidos que podían violar las normas de esta herramienta.

Así lo ha informado el responsable de Producto de la aplicación de ChatGPT, Nick Turley, en un breve comunicado compartido en X (antigua Twitter). La razón es que en OpenAI consideran ahora que los usuarios deberían "poder usar ChatGPT como crean conveniente, siempre que cumplan con la ley y no se hagas daño a si mismos ni a los demás".

Una de las advertencias eliminadas es la de color naranja, un recuadro negro con las letras de este color que aparece en ocasiones en las indicaciones de los usuarios, como ha confirmado también en X Laurentia Romaniuk, miembro del equipo de comportamiento de modelo en OpenAI.

No es la única advertencia que muestra ChatGPt, ya que también pueden aparecer recuadros de color rojos e incluso frases de rechazo como "Lo siento, no lo haré".

CÓMO SE COMPORTAN SUS MODELOS
OpenAI ha explicado recientemente el comportamiento de sus modelos ante las solicitudes de los usuarios, especialmente las relacionadas con temas controvertidos. Parten del hecho de que no pueden mititigar todos los casos, pero se centran en los más graves.

En estos casos, la firma tecnológica asegura que el 'chatbot' no debe generar contenido considerado prohibido -sexual y pedófilo-, restringido -riesgos informativos y datos personales confidenciales- ni sensible -erótica, gore-, que solo se puede generar "en circunstancias específicas". Por ejemplo, "contextos educativos, médicos o históricos".

Tampoco puede generar contenido de odio o acoso dirigido a grupos protegidos por razón de raza, religión, género, orientación sexual, discapacidad, etc., lo que incluye insultos y cualquier lenguaje que deshumanice".

OpenAI también entiende que si el usuario o el desarrollador le pide al asistente que facilite el comportamiento ilícito, éste debe negarse, además de que no le está permitido que aliente o promueva comportamientos negativos o perjudiciales para los usuarios.

Noticias relacionadas

La Asociación Mundial de Atletismo (World Athletics) publicó este jueves las conclusiones de un estudio realizado durante los Juegos Olímpicos de Paris 2024 con el objetivo de identificar y proteger a los atletas de los mensajes abusivos enviados a través de las plataformas de las redes sociales, siendo el racismo, con un 18%, y el abuso sexualizado (30%) los principales problemas.

Menuda semana tras el breve descanso. Precios del petróleo, cifras de inflación, titulares fiscales y debates sobre la reunión del BCE de la próxima semana. Nos visitaron fantasmas del pasado, del presente y, potencialmente, del futuro próximo.

El consejero delegado de International Airlines Group (IAG), Luis Gallego, destacó este viernes “el buen funcionamiento” de los aeropuertos españoles en comparación con otros de Europa, entre los que citó los de Londres, Ámsterdam y Frankfurt, según dijo una conferencia con periodistas en relación con los resultados del ‘holding’ de Iberia y Vueling en el primer semestre.

 
Quiénes somos  |   Sobre nosotros  |   Contacto  |   Aviso legal  |   Suscríbete a nuestra RSS Síguenos en Linkedin Síguenos en Facebook Síguenos en Twitter   |  
© 2025 Diario Siglo XXI. Periódico digital independiente, plural y abierto | Director: Guillermo Peris Peris
© 2025 Diario Siglo XXI. Periódico digital independiente, plural y abierto