{"id":117,"date":"2006-11-23T11:09:26","date_gmt":"2006-11-23T19:09:26","guid":{"rendered":"http:\/\/creatures.uji.es\/news\/archive\/2006\/11\/23\/entrevista-a-cynthia-breazeal"},"modified":"2006-11-23T11:09:26","modified_gmt":"2006-11-23T19:09:26","slug":"entrevista-a-cynthia-breazeal","status":"publish","type":"post","link":"https:\/\/www.robotic-lab.com\/blog\/2006\/11\/23\/entrevista-a-cynthia-breazeal\/","title":{"rendered":"Entrevista a Cynthia Breazeal"},"content":{"rendered":"<p><a href=\"http:\/\/robotic.media.mit.edu\/projects\/Leonardo\/Leo-intro.html\"><img decoding=\"async\" class=\"image-right\" src=\"http:\/\/creatures.uji.es\/news\/archive\/2006\/imagenes\/Leofur.gif\/image_mini\" alt=\"Leonardo\" \/><\/a>El reportaje lo pod\u00e9is encontrar <a href=\"http:\/\/www.pbs.org\/wgbh\/nova\/sciencenow\/3318\/03.html\">aqu\u00ed<\/a>, en diferentes formatos (todos por streaming). En la misma p\u00e1gina tambi\u00e9n se puede acceder a unos fragmentos de audio de una entrevista. Cynthia Breazeal es directora del <a href=\"http:\/\/robotic.media.mit.edu\/\">Robotic Life Group<\/a>, en el <a href=\"http:\/\/media.mit.edu\/\">MIT Media Lab<\/a>. Anteriormente estuvo trabajando junto a <a href=\"http:\/\/people.csail.mit.edu\/brooks\/\">Rodney Brooks<\/a> en la construcci\u00f3n y programaci\u00f3n de <a href=\"http:\/\/www.ai.mit.edu\/projects\/humanoid-robotics-group\/kismet\/\">Kismet<\/a>, una cabeza robotizada capaz de expresar emociones. Su principal l\u00ednea de investigaci\u00f3n es la interacci\u00f3n hombre-m\u00e1quina. En el reportaje habla sobre el estado actual de los robots en cuanto a la interacci\u00f3n con los humanos, y tambi\u00e9n sobre los proyectos en los que su grupo est\u00e1 investigando. De entre ellos, el m\u00e1s llamativo se llama <a href=\"http:\/\/robotic.media.mit.edu\/projects\/Leonardo\/Leo-intro.html\">Leonardo<\/a>, una colaboraci\u00f3n con la industria cinematogr\u00e1fica que pretende mezclar el arte con los \u00faltimos avances en interacci\u00f3n hombre-robot. En el reportaje se habla de Kismet y Leonardo, pero tambi\u00e9n de <a href=\"http:\/\/www.ai.mit.edu\/projects\/humanoid-robotics-group\/cog\/\">Cog<\/a> y <a href=\"http:\/\/robotic.media.mit.edu\/projects\/theHuggable.html\">The Huggable<\/a>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p><a href=\"http:\/\/robotic.media.mit.edu\/projects\/Leonardo\/Leo-intro.html\"><img decoding=\"async\" class=\"image-right\" src=\"..\/..\/imagenes\/Leofur.gif\/image_mini\" alt=\"Leonardo\" \/><\/a>El reportaje lo pod\u00e9is encontrar <a href=\"http:\/\/www.pbs.org\/wgbh\/nova\/sciencenow\/3318\/03.html\">aqu\u00ed<\/a>, en diferentes formatos (todos por streaming). En la misma p\u00e1gina tambi\u00e9n se puede acceder a unos fragmentos de audio de una entrevista. Cynthia Breazeal es directora del <a href=\"http:\/\/robotic.media.mit.edu\/\">Robotic Life Group<\/a>, en el <a href=\"http:\/\/media.mit.edu\/\">MIT Media Lab<\/a>. Anteriormente estuvo trabajando junto a <a href=\"http:\/\/people.csail.mit.edu\/brooks\/\">Rodney Brooks<\/a> en la construcci\u00f3n y programaci\u00f3n de <a href=\"http:\/\/www.ai.mit.edu\/projects\/humanoid-robotics-group\/kismet\/\">Kismet<\/a>, una cabeza robotizada capaz de expresar emociones. Su principal l\u00ednea de investigaci\u00f3n es la interacci\u00f3n hombre-m\u00e1quina. En el reportaje habla sobre el estado actual de los robots en cuanto a la interacci\u00f3n con los humanos, y tambi\u00e9n sobre los proyectos en los que su grupo est\u00e1 investigando. De entre ellos, el m\u00e1s llamativo se llama <a href=\"http:\/\/robotic.media.mit.edu\/projects\/Leonardo\/Leo-intro.html\">Leonardo<\/a>, una colaboraci\u00f3n con la industria cinematogr\u00e1fica que pretende mezclar el arte con los \u00faltimos avances en interacci\u00f3n hombre-robot. En el reportaje se habla de Kismet y Leonardo, pero tambi\u00e9n de <a href=\"http:\/\/www.ai.mit.edu\/projects\/humanoid-robotics-group\/cog\/\">Cog<\/a> y <a href=\"http:\/\/robotic.media.mit.edu\/projects\/theHuggable.html\">The Huggable<\/a>.<\/p>\n","protected":false},"author":12,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":false,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[1],"tags":[],"class_list":["post-117","post","type-post","status-publish","format-standard","hentry","category-otros"],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"","jetpack_shortlink":"https:\/\/wp.me\/p1YYAx-1T","jetpack_sharing_enabled":true,"jetpack-related-posts":[],"_links":{"self":[{"href":"https:\/\/www.robotic-lab.com\/blog\/wp-json\/wp\/v2\/posts\/117","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.robotic-lab.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.robotic-lab.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.robotic-lab.com\/blog\/wp-json\/wp\/v2\/users\/12"}],"replies":[{"embeddable":true,"href":"https:\/\/www.robotic-lab.com\/blog\/wp-json\/wp\/v2\/comments?post=117"}],"version-history":[{"count":0,"href":"https:\/\/www.robotic-lab.com\/blog\/wp-json\/wp\/v2\/posts\/117\/revisions"}],"wp:attachment":[{"href":"https:\/\/www.robotic-lab.com\/blog\/wp-json\/wp\/v2\/media?parent=117"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.robotic-lab.com\/blog\/wp-json\/wp\/v2\/categories?post=117"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.robotic-lab.com\/blog\/wp-json\/wp\/v2\/tags?post=117"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}