Investigadores de la Universidad de Cambridge están explorando el papel de las emociones humanas en la interacción humano-computadora.
“Estamos construyendo computadoras emocionalmente inteligentes, unas que puedan leer mi mente y saber como me siento”, indicó el profesor Peter Robinson. “Las computadoras son muy buenas en saber lo que uno está escribiendo o incluso diciendo. Pero requieren entender no sólo lo que estoy diciendo, sino la manera en que lo estoy diciendo”.
Este equipo de investigación está colaborando muy cercanamente con el profesor Simon Baron-Cohen en el Centro de Investigación Autista, de la misma universidad. En el centro han estudiado las dificultades que tienen algunas personas para comprender las emociones humanas, y sus opiniones podrían ayudar en la investigación con las computadoras en el mismo sentido.
Las expresiones faciales son muy importantes para entender los sentimientos de una persona. Un sistema sigue los gestos del rostro, calcula los gestos que se hacen y entonces infiere el tipo de emoción que se quiere transmitir o se siente en este momento. El 70% de los casos la respuesta ha sido la correcta, lo cual es un estándar tan bueno como el mostrado por la mayoría de los humanos.
Otros sistemas analizan la entonación de la voz para inferir emociones de esa manera, ya analiza las posturas del cuerpo y los gestos.
Ian Davies, uno de los miembros del equipo de trabajo, encuentra aplicaciones de este tipo de desarrollos en sistemas de control y comando. “Incluso en algo tan simple como conducir un automóvil, es importante saber si el chofer está concentrado o confundido, de manera que se pueda evitar distracciones de un teléfono celular, la radio, o el sistema de navegación vía satélite”.
Entender puramente las emociones no es suficiente. El profesor Robinson desea que las computadoras puedan expresar también sus emociones, ya sea por medio de dibujos animados o robots.
Otro miembro del equipo, Tadas Baltrušaitis, trabaja con animaciones de gestos faciales y expresiones, mientras Laurel Riel experimenta con una cabeza robótica llamada Charles. “Charles tiene dos docenas de motores que controlas sus ‘músculos’ de la cara, proporcionando una gran variedad de gestos y expresiones. Podemos usarlo para explorar empatía y cooperación, entre una gran variedad de posibles emociones entre personas y computadoras”.
Puedes leer el artículo completo en inglés aquí.
Comentarios