El robot que interpreta las emociones de los discapacitados intelectuales

Investigadores de la Universitat Rovira i Virgili han creado robots que interpretan las emociones de los discapacitados intelectuales, y  son capaces de proponer acciones para modificarlas si son negativas y mantenerlas sin son positivas.

Una investigación de Jainendra Shukla, bajo la dirección de Domènec Puig, del Departamento de Ingeniería Informática y Matemáticas de la URV, ha conseguido crear un robot que puede detectar las emociones en estos pacientes, según informa el centro universitario tarraconense.

La investigación de Shukla se enmarca en su tesis de doctorado industrial y ha trabajado en estrecha colaboración con la Fundación Ave María, que está dedicada a la atención integral de estos pacientes sin cura médica, pero con margen para mejorar su calidad de vida.

El trabajo desarrollado en esta tesis ha permitido dotar al robot de la habilidad para ir probando y combinando diferentes actividades adaptadas al estado emocional de los pacientes en cada momento, siempre bajo la supervisión del personal asistencial.

Los profesionales sanitarios deciden qué actividad se propondrá basándose en la estimulación y la rehabilitación con terapia cognitiva.

Esta investigación implicará reducir de forma significativa la carga de los cuidadores, ofrecer una atención más personalizada a estos pacientes –que precisan atención constante–, aumentar su autonomía y mejorar su calidad de vida.

Fruto del trabajo de esta tesis, la URV, junto con el Instituto de Robótica para la Dependencia (creado por la Fundación Ave María), solicitaron una patente europea en octubre de 2017.

La realidad virtual, un fenómeno real en el que la música es el pilar

Publicado en: Uncategorized 0

La realidad realidad virtual, cada vez está más cerca de instalarse en nuestro día a día.

Sin embargo, aún es una tecnología desconocida para muchos, y el papel de la música y el sonido en este tipo de experiencias son claves.

«Existe una dominancia visual, nos regimos por lo que vemos, y por eso se da prioridad a ese sentido en la realidad virtual», explica Jean-Luc Cohen, profesor del Berklee College of Music en Boston y Nueva York y experto en realidad virtual. «El tema de la música y del audio en la realidad virtual (VR) ha quedado en un segundo plano. Lo visual es siempre lo que rige, pero las compañías están viendo que esto es mucho más potente cuando el audio complenta lo visual», añade Pablo Munguía, ingeniero de sonido de las ceremonias de los Óscar y Grammys.

Ambos expertos estuvieron en Madrid hace unos días, reivindicando el papel de la música en la realidad virtual,  en la cuarta conferencia The XR Date en la Fundación Telefónica. «Hay cuatro áreas clave en estas experiencias: la riqueza del ambiente, lo visual, el audio y la narrativa. Hasta ahora se ha puesto mucho el foco en la riqueza de lo visual, pero la realidad es que la mejor experiencia se logra cuando consigues un balance entre los cuatro elementos. Si te enfocas en lo visual y descuidas lo demás, la experiencia va a ser más pobre y va a ser más difícil conseguir la inmersión», explica Munguía.

Ese elemento, la inmersión, es precisamente la clave del éxito para Jean-Luc Cohen, quien explica que este «no es un concepto nuevo sino que ahora tenemos nuevas y mejores herramientas para desarrollarlo». Según explica el francés, un libro, una película o un videojuego (incluso uno antiguo) pueden lograr una gran inmersión mediante la narrativa. «El sonido es también una de las mejores herramientas para crear inmesiones» y para romperlas, cuando se usa mal y choca con lo visual, que es lo que manda. Ahora, la realidad virtual añade otros dos potentes efectos de inmersión: la presencia espacial, «la sensación de estar en un lugar en el que no estamos físicamente», y la capacidad de interactuar con ese entorno.

Sin embargo, para que el efecto funcione a la perfección no hay que descuidar los otros elementos: la narrativa, la música y la coherencia de lo que se muestra.

Para Munguía, la música en entornos de realidad extendida signfica mucho más, él ve ahí «el futuro de la industria de la música». El ingeniero habla de tres periodos en la historia del consumo musical: el preestático, donde la única forma de escucharla era con músicos en vivo y una pieza nunca era dos veces igual; el estático, el que la música está grabada y los oyentes tienen la expectativa de escucharla tal cual suena en el disco o el formato que sea (lo que influye incluso en cómo los artistas interpretan la música en directo); y el posestático, que es hacia el que vamos con la VR. «Son estructuras no lineales que nos permiten tener una experiencia con la que podemos interactuar», detalla. Afirma que el gran beneficio es que «son experiencias difícilmente pirateables» y eso puede tener «un impacto muy positivo en la industria de la música, que sobrevive en un modelo que ahora no es viable. «Ahora dominan lo que yo llamo la segunda ola de los piratas, que está personalizada por sistemas de streaming como Spotify, Apple Music, Pandora…

Están haciendo esencialmente lo mismo que hacía Napster, tomar el contenido que crean los músicos y usarlo como mejor les parece, cobrar lo que ellos quieren pagar sin apenas una negociación. Esto es lo que hace un pirata», sentencia. «El modelo hoy por hoy no es un modelo viable. Las discográficas han entrado en estas negociaciones y han creado un ambiente en el que simplemente va a ser imposible que las compañías de streaming vayan a tener un éxito comercial, sin embargo en este momento es la única salida», concluye, con su esperanza puesta en la realidad extendida para cambiar la realidad de la industria.

Samsung comercializará el microprocesador más pequeño del mercado en 2019

Samsung Electronics anunció que comenzará la producción de microprocesadores de nueva generación con componentes de 7 nanómetros, los más pequeños del mercado, con el objetivo de introducirlos al mercado a partir de 2019.

Para ello, la compañia surcoreana, utilizará una nueva técnica basada en la litografía ultravioleta extrema (EUV).

El anuncio fue comunicado en el foro Samsung Foundry, que tuvo lugar en Santa Clara (EE.UU), en el que reveló que en su primera fase experimental trabajarán con tecnologías de 5, 4 y 3 nanómetros.

Cada nueva generación de chips se define por el tamaño mínimo de sus componentes esenciales, 7 nanómetros en el caso del microchip, objetivo que se basa en el desarrollo de microprocesadores más potentes y con mayor número de transistores.

Por otro lado, IBM también anunció que comenzaría a fabricar microprocesadores de 7 nanómetros en laboratorios con intención de reproducirlos en plantas de producción, pero Samsung promete estar por delante de sus competidores en el dominio de la EUV.

La litografía ultravioleta extrema es una técnica basada en el uso de longitudes de onda de luz muy cortas cuyo objetivo es aligerar los costes de la producción de éstos semiconductores tan pequeños.

Con la producción de éstos procesadores, Samsung pretende dominar el sector frente a otros competidores como IBM, Apple, o Qualcomm, entre otras.

Google Duplex: el asesor que realiza tus tareas diarias, reserva tus citas y redacta tus emails.

Durante el evento I/O para desarrolladores, Google ha presentado las nuevas características para el rediseño de Gmail y un nuevo sistema de inteligencia artificial, aplicado a la automatización de las conversaciones telefónicas, llamado Google Duplex. Sundar Pichai, director ejecutivo de la empresa, centró su discurso en la inteligencia artificial, que cada vez se halla en más productos de la compañía, incluido en Google Assistant, su asistente digital. A través de una demostración en la que Google Assistant realizaba una llamada a una peluquería, la máquina demostraba poder engañar al humano con su voz. De tal manera, pudo mantener una conversación con una persona mediante una voz sintetizada. En otro ejemplo, la máquina consiguió hacer una reserva en un restaurante para su usuario.

Reconocimiento del discurso El sistema de conversación de Google Duplex se basa en una Red Neuronal Recurrente desarrollada mediante ‘TensorFlow Extended’. Para lograr la mayor precisión posible en las conversaciones, la red neuronal fue probada en conversaciones anónimas. La estructura hace uso de la tecnología ASR ( basada en el reconocimiento automático del discurso) de Google, y analiza distintos parámetros para conocer el contexto en el que se dirige a su interlocutor. El sistema es capaz de mantener una conversación de manera «totalmente autónoma», pese a que alberga un sistema de automatización que avisa al humano si la tarea encomendada no pudo ser completada.

Nuevo diseño para Gmail Mediante la Smart Compose (composición o redacción inteligente), la nueva versión de Gmail está programada para ser de ayuda a los usuarios de cara a la redacción de correos electrónicos y a predecir lo que quieren escribir basándose en el contexto. Gmail es una herramienta usada por millones de usuarios en el mundo y para varios asuntos, lo cual permitirá que la compañía pueda mejorar esta herramienta predicitiva de manera progresiva. Smart Compose llegará a los usuarios durante las próximas semanas, siempre que tengan el nuevo diseño de Gmail. Aún se desconoce si dicho mecanismo se trasladará para su funcionamiento en otros idiomas que no sean el inglés.

Google Duplex ofrecerá un sistema de inteligencia artificial destinado a conversaciones telefónicas. Gmail incluirá un sistema de redacción inteligente basado en el contexto de la conversación. En el siguiente enlace puedes escuchar los ejemplos de conversaciones mencionados en el texto.

1 2 3 4 5 19