Nuevo proyecto de teléfonos con inteligencia emocional


Hoy en Oh! Tech les vamos a comentar a cerca del nuevo emprendimiento de un grupo del IEEE, quienes están trabajando en un nuevo algoritmo que permita saber el estado de ánimo del usuario de acuerdo a su voz. Lo que va a llevar a la creación de un teléfono con inteligencia emocional, consciente del contexto del usuario, a partir de la posición, hora, lista de tareas, poder aportar información de valor o recordatorios.

En fin, la nueva creación consiste en un teléfono no sólo consciente del contexto del usuario, sino también de su estado.

Este nuevo emprendimiento no resulta ser una tarea para nada fácil, ya que el hecho de que un dispositivo móvil pueda ser capaz de saber nuestro estado anímico a través del reconocimiento de la voz, ¿no les parece una tarea difícil?. Y exactamente así es, estudiar cuáles son los factores que, con certeza, ayuden a determinar cómo se siente una persona no es nada fácil; por esto mismo, están trabajando con psicólogos para intentar parametrizar mejor los algoritmos.

 

Según comenta Wendi Heinzelman, una de las profesoras guías del proyecto, en el dispositivo se utilizan grabaciones de actores leyendo la fecha del mes, aunque realmente no importa mucho lo que estén diciendo, es cómo lo dicen lo que nos interesa. Según Heinzelman lo que es de sumo interés son 12 características del habla, como por ejemplo el volumen y tono, para poder reconocer una de las seis emociones, logrando un impresionante 81% de aciertos, resultado que logró ser conseguido luego de que los estudios previos hayan conseguido casi un 55%. De hecho, también les contamos que ya hay una versión de prototipo hecha desarrollada por Na Yang durante su beca en Microsoft Research.

Por otro lado, este nuevo emprendimiento, también supone descomponer los sentimientos en medidas cuantificables, cosa que los humanos hacemos de forma natural (podemos intuir si alguien está enfadado o feliz por el simple hecho de hablar con él), pero convertirlo a números supone enseñarle a un ordenador cómo suena “enfadado” o cómo se oye a alguien triste.

Sin embargo la complicación existe, ya que hay un amplio espectro donde los individuos poseen diferentes formas de expresar sus emociones,  por lo que el algoritmo debe ir adaptándose a su usuario particular y junto con él ir aprendiendo de este; el problema es que aún se necesita interacción con el usuario para irle enseñando cuándo es un estado y cuándo otro.

Junto con este nuevo proyecto, también se está comenzando a hablar de aplicaciones prácticas de por medio, lo cual resulta ser un buen avance que permitiría cosas como playlists adaptadas a nuestro estado o niveles de personalización  que dependan del momento en el que usemos el terminal. En síntesis, la idea general es una creación a futuro de un teléfono adaptado incluso a la manera de cómo estamos pensando en ese momento.

Vía: Celularis






Dejá un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *