Fujitsu presenta en el MWC 2018 "LIVE TALK" el más sofisticado traductor en tiempo real para sordos basado en Inteligencia Artificial

Ha sido desarrollado para 19 idiomas incluido el catalán.
Es perfecto para los sordos ya que les permite trabajar con personas de cualquier lugar del mudo sin necesidad de conocer el idioma.

En el Mobile World Congress 2018, Fujitsu ha presentado LIVE TALK, un traductor multilingüe en 19 idiomas, incluido el catalán para sordos, único hasta el momento en el mercado. En concreto, se trata de una solución basada en Inteligencia Artificial y un motor cloud, que reconoce lo que dice el orador y muestra instantáneamente la traducción en el idioma o idiomas seleccionados, en una o varias pantallas en tiempo real. Los 19 idiomas que contempla a día de hoy son: inglés, chino simplificado y tradicional, coreano, francés, español, árabe, ruso, portugués, alemán, italiano, polaco, holandés, danés, finlandés, sueco, noruego, japonés y catalán.

Es un software que se puede configurar para hablar en tantos idiomas como sea necesario en una misma conversación. Se creó en el 2015 por la multinacional nipona fundamentalmente para personas sordas, pero ahora su uso es generalizado y está disponible en Japón desde el 8 de marzo de 2017. Es importante señalar que abre una gran oportunidad para los sordos ya que les permite trabajar en cualquier lugar del mundo, sin tener que conocer la lengua, lo cual le convierte en una potente herramienta de comunicación participativa.

Sus usos son numerosos, desde una reunión corporativa, en la escuela, para temas turísticos, eventos internacionales, hospitales, organismos gubernamentales etc. Es ideal para las empresas que hacen negocios a nivel mundial y tienen la necesidad de incorporar nuevas herramientas, que respalden la comunicación a nivel internacional de su personal. No hay límites en una conversación de incluir idiomas y tampoco en las palabras ya que el sistema detecta diferentes oradores. Y proporciona un entorno de trabajo de bajo estrés al eliminar los desfases temporales, ya que se utiliza un ritmo natural de conversación.

En cuanto a cómo utilizarlo, simplemente los usuarios configuran en su dispositivo su idioma de visualización preferido y una vez realizado, las palabras se mostrarán en su pantalla traducido a este idioma. No hay límites de cantidad o combinaciones, se podrían usar simultáneamente los 19 idiomas creados hasta el momento en una conversación grupal. Así mismo, el sistema sabe quién es quién/ orador en cada conversación, incluso con varios participantes aunque hablen mismo tiempo. También se puede usar con un teclado, de ahí su interés para las personas sordas. Es importante señalar que la versión móvil de prueba se ofrecerá en el extranjero en los próximos meses. Aunque a día de hoy trabaja con los sistemas para PC solo Windows 7, 8 y 10. La versión de dispositivos móviles, que incluye tabletas y teléfonos inteligentes, es compatible con iOS (9.3 y superior) y Android (versión 4.3). A día de hoy trabaja con los sistemas Windows 7, 8 y 10 y se está desarrollando la versión móvil, tanto para tabletas como para Smartphone, ahora mismo ya en pruebas en Japón.

Noticias relacionadas

> Ver todas