Programar el comportamiento de un robot, es una tarea altamente compleja. Pero más complejo todavía es el programar a un robot para que aprenda de sus errores (un poco a nuestro estilo ensayo-error).
Un paso más allá, es enseñar a un robot lo que está bien o mal de acuerdo con nuestras expresiones faciales ( lo que hacemos con los niños, por ejemplo ).
Un grupo de investigadores de la Universidad de Tsukuba ha desarrollado una interfaz electromiográfica, capaz de detectar cuando un usuario está sonriendo, o ha fruncido el ceño. Anna Gruebler, quien parece ser la mente maestra detrás de esta interfaz, propuso al desarrollo como un sistema para controlar las expresiones de los avatares en Second Life. La detección de gestos no se limitan a sonrisas y ceños fruncidos, ya que su precisión alcanza un impresionante 97 por ciento. Esto dio lugar a la utilización de la interfaz como método de entrenamiento de un robot Nao, el cual aprendió después de algunos intentos que la sonrisa era “positiva”, y el ceño fruncido “negativo”.
Y esto es la muestra:
Realmente fascinante, ¿a qué si?
para saber más:
http://www.neoteo.com/programando-robots-con-sonrisas
lunes, 21 de noviembre de 2011
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario