Siglo XXI. Diario digital independiente, plural y abierto. Noticias y opinión
Viajes y Lugares Tienda Siglo XXI Grupo Siglo XXI
21º ANIVERSARIO
Fundado en noviembre de 2003
Portada
Etiquetas

Google explica cómo utiliza la IA para que sus apps mejoren la vida de personas con discapacidad

Agencias
jueves, 12 de diciembre de 2019, 15:01 h (CET)

Google explica cómo utiliza la IA para que sus apps mejoren la vida de personas con discapacidad

MADRID, 12 (Portaltic/EP)
Google ha explicado este jueves en un evento en Madrid cómo aplica la Inteligencia Artificial (IA) y el 'machine learning' en sus aplicaciones para mejorar la accesibilidad para personas con discapacidad.

Durante un evento en la sede de Google en Madrid, la compañía ha mostrado una serie de aplicaciones que ayudan a personas con discapacidad del habla o con alguna discapacidad visual en su día a día.

Dimitri Kanevsky, un científico de Google, ha hablado sobre el proyecto Euphonia, que tiene como objetivo mejorar el reconocimiento de voz en sus productos, centrándose en entrenar los dispositivos para que comprendan mejor a las personas que tienen dificultades a la hora de hablar debido a afecciones neurológicas como parálisis cerebral, esclerosis múltiple o lesiones cerebrales traumáticas.

Una de las aplicaciones que ha mostrado es Live Transcribe (Transcripción Instantánea, en español), una herramienta que utiliza el sistema de reconocimiento de voz de Google para transcribir de forma simultánea en la pantalla del dispositivo del usuario aquello que le están diciendo las personas de su alrededor.

Live Transcribe permite elegir entre 70 idiomas y dialectos distintos, pero esta herramienta ha sido entrenada con una pronunciación estándar.

Por ello, Kanevsky ha explicado que para personas con discapacidad del habla se encuentra la herramienta Euphonia, a la que los usuarios deben entrenar mediante la grabación de audios.

En el caso de Kanevsky, que tiene sordera desde la infancia, entrenó a Euphonia con 25 horas de grabación. "Fue un proceso lento. Primero grabé unas pocas horas y el sistema entendía tan solo frases básicas", ha afirmado el científico de Google.

"Después empecé a entrenar a Euphonia con mis discursos y cuando añadí más descubrí que comenzaba a comprender frases aleatorias. Tras 25 horas de grabación empezó a entenderme muy bien", ha detallado.

Parrotron es otro proyecto específico para personas con discapacidad del habla. Mientras Euphonia convierte el audio en texto, Parrotron está entrenado para convertir un audio no estándar en estándar, es decir, convierte palabras y frases entrecortadas o que no se han pronunciado correctamente en audio comprensible.

Además, Kanevsky ha explicado el funcionamiento de Live Caption, una aplicación que agrega subtítulos de forma automática a vídeos, 'podcasts' e incluso mensajes de audio. Mientras Live Transcribe transcribe el audio del micrófono de los dispositivos, esta 'app' transcribe el audio generado por otra aplicación.

Por el momento, esta aplicación está únicamente disponible en dispositivos Pixel 4, aunque el científico de Google ha afirmado que estará pronto disponible para Pixel 3.

Para personas con discapacidad visual, Google cuenta con la aplicación Lookout que gracias a la IA y al reconocimiento de imágenes ayuda a aquellos con problemas de visión a descubrir, a través de su dispositivo, lo que tienen alrededor.

Esta herramienta utiliza la cámara de los dispositivos móviles y reconoce objetos, personas y textos utilizando 'machine learning'. Después dirá lo que ha reconocido añadiendo además en qué posición se encuentra.

El deportista paralímpico Enhamed Enhamed, que cuenta con nueve medallas olímpicas y 38 mundiales, ha asegurado en el evento de Google que el avance de las tecnologías ha sido una "transformación radical", ya que ha hecho que pueda navegar sabiendo dónde está y qué tiene alrededor a pesar de su ceguera.

"A pesar de que los ciegos podamos oír y podamos hablar, teníamos una falta de comunicación en muchos aspectos porque no podías leer la prensa hasta que han llegado los teléfonos con voces incorporadas, los mensajes no funcionaban... Ahora poder encontrar imágenes que puedes leer ha sido un cambio radical", ha recalcado.

Noticias relacionadas

La Asociación Mundial de Atletismo (World Athletics) publicó este jueves las conclusiones de un estudio realizado durante los Juegos Olímpicos de Paris 2024 con el objetivo de identificar y proteger a los atletas de los mensajes abusivos enviados a través de las plataformas de las redes sociales, siendo el racismo, con un 18%, y el abuso sexualizado (30%) los principales problemas.

Menuda semana tras el breve descanso. Precios del petróleo, cifras de inflación, titulares fiscales y debates sobre la reunión del BCE de la próxima semana. Nos visitaron fantasmas del pasado, del presente y, potencialmente, del futuro próximo.

El consejero delegado de International Airlines Group (IAG), Luis Gallego, destacó este viernes “el buen funcionamiento” de los aeropuertos españoles en comparación con otros de Europa, entre los que citó los de Londres, Ámsterdam y Frankfurt, según dijo una conferencia con periodistas en relación con los resultados del ‘holding’ de Iberia y Vueling en el primer semestre.

 
Quiénes somos  |   Sobre nosotros  |   Contacto  |   Aviso legal  |   Suscríbete a nuestra RSS Síguenos en Linkedin Síguenos en Facebook Síguenos en Twitter   |  
© 2024 Diario Siglo XXI. Periódico digital independiente, plural y abierto | Director: Guillermo Peris Peris
© 2024 Diario Siglo XXI. Periódico digital independiente, plural y abierto