El Laboratorio de Inteligencia Artificial de la Universidad de Tsukuba (Japón) ha presentado un robot capaz de actuar según las emociones de “su cuidador” para que el robot aprenda lo que está bien y lo que está mal.

Nao, así es como lo han llamado interpreta el feedback que damos según la expresión de nuestro rostro, por lo tanto, si sonreímos, Nao interpretará que lo está haciendo bien y asumirá que la acción que está ejecutando es correcta, pero si fruncimos el ceño como si estuviéramos enfadados o que no nos parece correcto lo que está haciendo el robot, Nao asumirá que lo está haciendo mal.

El funcionamiento se basa en unos sensores  y electrodos que, basándose en la Electromiografía y puestos en la cabeza del cuidador, son capaces de detectar el gesto (actividad eléctrica producida por los músculos) que estamos haciendo con la cara y traducirlo a una señal que es enviado a Nao en forma de feedback de sus actuaciones.

 

Via/ieespectrum

Deja un comentario