{"id":33580,"date":"2026-02-18T09:44:00","date_gmt":"2026-02-18T08:44:00","guid":{"rendered":"https:\/\/www.ecoticias.com\/hoyeco\/?p=33580"},"modified":"2026-02-13T15:36:48","modified_gmt":"2026-02-13T14:36:48","slug":"un-robot-vio-cientos-de-horas-de-youtube-y-lo-que-aprendio-dejo-a-los-cientificos-sin-palabras","status":"publish","type":"post","link":"https:\/\/www.ecoticias.com\/hoyeco\/un-robot-vio-cientos-de-horas-de-youtube-y-lo-que-aprendio-dejo-a-los-cientificos-sin-palabras\/33580\/","title":{"rendered":"Un robot vio cientos de horas de YouTube y lo que aprendi\u00f3 dej\u00f3 a los cient\u00edficos sin palabras"},"content":{"rendered":"\n<p>Un <a href=\"https:\/\/www.ecoticias.com\/hoyeco\/robots-extranos-humanoides-2025\/17896\/\">robot humanoide<\/a> ha logrado algo que hasta hace muy poco sonaba a ciencia ficci\u00f3n. EMO, desarrollado por un equipo de Columbia Engineering, ha aprendido a sincronizar sus labios y gestos faciales con la voz humana tras mirarse al espejo y ver durante horas v\u00eddeos de personas hablando y cantando en YouTube, sin que nadie le programe reglas paso a paso. El resultado se ha presentado en enero de 2026 en la revista Science Robotics.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Un robot que se mira al espejo como un ni\u00f1o<\/h2>\n\n\n\n<p>El <a href=\"https:\/\/www.engineering.columbia.edu\/about\/news\/robot-learns-lip-sync\" target=\"_blank\" rel=\"noopener\">entrenamiento de EMO<\/a> empieza de una forma sorprendentemente cotidiana. Los investigadores colocan la cabeza rob\u00f3tica frente a un espejo y dejan que haga miles de muecas y movimientos aleatorios. Mientras tanto, la inteligencia artificial que lo controla va apuntando qu\u00e9 combinaci\u00f3n de motores produce cada gesto que aparece reflejado en la \u201ccara\u201d de silicona.<\/p>\n\n\n\n<p>En la pr\u00e1ctica, es como ver a un ni\u00f1o peque\u00f1o probando gestos delante del espejo para entender c\u00f3mo se mueve su propia cara. A partir de esa autoexploraci\u00f3n, el sistema construye un mapa entre las \u00f3rdenes internas y las formas de la boca, las mejillas o la mand\u00edbula. Ese mapa ser\u00e1 la base para todo lo que viene despu\u00e9s.<\/p>\n\n\n\n<p>La parte f\u00edsica tambi\u00e9n marca la diferencia. EMO tiene una piel de silicona blanda y cuenta con 26 motores escondidos bajo la superficie, adem\u00e1s de un mecanismo con diez grados de libertad en los labios, lo que le permite movimientos continuos y muy finos, lejos de las mand\u00edbulas r\u00edgidas de muchos <a href=\"https:\/\/www.ecoticias.com\/hoyeco\/polonia-robot-humanoide-protoclone\/19013\/\">humanoides<\/a> actuales.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Del marat\u00f3n de YouTube a hablar en diez idiomas<\/h2>\n\n\n\n<p>Cuando <a href=\"https:\/\/cordis.europa.eu\/article\/id\/463153-meet-the-robot-that-talks-likes-us\" target=\"_blank\" rel=\"noopener\">EMO<\/a> ya sabe c\u00f3mo responde su propia cara, llega el momento de \u201csalir al mundo\u201d. El robot pasa horas \u201cviendo\u201d v\u00eddeos de personas hablando y cantando en distintos idiomas en <a href=\"https:\/\/scitechdaily.com\/this-robot-learned-to-talk-by-watching-humans-on-youtube\/\" target=\"_blank\" rel=\"noopener\">YouTube<\/a>. La IA va asociando lo que oye con lo que ve que hacen las bocas humanas y aprende a traducir directamente el sonido en movimientos de sus propios motores faciales.<\/p>\n\n\n\n<p>Lo llamativo es que el sistema no necesita entender las palabras. No hace falta que reconozca fonemas ni que alguien le ense\u00f1e reglas de pronunciaci\u00f3n. Trabaja por pura observaci\u00f3n y patr\u00f3n, igual que cuando una persona imita un acento escuchando a otros.<\/p>\n\n\n\n<p>Seg\u00fan el resumen t\u00e9cnico del proyecto, EMO ha sido capaz de articular discurso en diez idiomas que no estaban presentes en la fase inicial de entrenamiento, lo que indica que el modelo generaliza mas all\u00e1 de los ejemplos concretos que vio al principio.<\/p>\n\n\n\n<p>Como gui\u00f1o final, el equipo ha ido un paso mas lejos y ha publicado un \u00e1lbum generado por inteligencia artificial, \u201chello world_\u201d, en el que el robot canta mientras mueve los labios siguiendo lo aprendido.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Por qu\u00e9 importa tanto que un robot mueva bien la boca<\/h2>\n\n\n\n<p>Puede parecer un detalle menor comparado con que un robot camine o coja objetos, pero los propios investigadores recuerdan que, en una conversaci\u00f3n cara a cara, casi la mitad de nuestra atenci\u00f3n visual se centra en la boca de nuestro interlocutor. Si los labios no acompa\u00f1an bien a la voz, aparece esa sensaci\u00f3n extra\u00f1a que llamamos \u201cvalle inquietante\u201d.<\/p>\n\n\n\n<p>Hasta ahora, muchos <a href=\"https:\/\/www.ecoticias.com\/hoyeco\/robots-plantas-coches-hyundai\/20763\/\">robots sociales<\/a> usaban movimientos predefinidos o muy simples, que daban como resultado caras r\u00edgidas y poco cre\u00edbles. Con EMO, el equipo ha probado un enfoque distinto. Utiliza un modelo de visi\u00f3n a acci\u00f3n que enlaza directamente lo que \u201cve\u201d con la acci\u00f3n de los motores, sin tablas de reglas ni guiones fijos.<\/p>\n\n\n\n<p>En pruebas con mas de mil trescientas personas, las secuencias de labios generadas por este modelo fueron las preferidas en torno a un sesenta por ciento de las veces frente a enfoques mas b\u00e1sicos, como mover la boca solo en funci\u00f3n del volumen del sonido.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hacia robots mas cercanos y tambi\u00e9n mas pol\u00e9micos<\/h2>\n\n\n\n<p>El director del laboratorio, Hod Lipson, admite que \u201calgo casi m\u00e1gico ocurre cuando un robot aprende a sonre\u00edr o a hablar solo observando y escuchando a los humanos\u201d. El investigador principal, Yuhang Hu, a\u00f1ade que, cuando esta capacidad se combina con modelos conversacionales como ChatGPT o Gemini, la sensaci\u00f3n de conexi\u00f3n con el robot gana una profundidad completamente nueva.<\/p>\n\n\n\n<p>En la vida diaria, esto podr\u00eda traducirse en <a href=\"https:\/\/www.ecoticias.com\/hoyeco\/robots-indestructibles-regenerarse\/18392\/\">m\u00e1quinas<\/a> que acompa\u00f1an a personas mayores, asisten en hospitales o ayudan en educaci\u00f3n con una comunicaci\u00f3n mucho mas natural. No se tratar\u00eda solo de que el robot responda con la frase correcta, sino de que lo haga con una expresi\u00f3n facial que encaje con lo que dice, algo que cualquiera nota al primer vistazo.<\/p>\n\n\n\n<p>Pero no todo son promesas. El propio equipo reconoce que la tecnolog\u00eda tiene l\u00edmites y riesgos. EMO todav\u00eda falla mas con sonidos complicados para los labios, como las consonantes \u201cB\u201d o los gestos de \u201cpuchero\u201d necesarios para una \u201cW\u201d. Y, sobre todo, advierten de que dar a los robots una capacidad tan fina para conectar con las personas ser\u00e1 \u201cuna tecnolog\u00eda muy poderosa\u201d que exige avanzar despacio y con cuidado para aprovechar sus ventajas minimizando los posibles usos abusivos.&nbsp;<\/p>\n\n\n\n<p>La gran pregunta que queda en el aire es sencilla y, a la vez, inc\u00f3moda. Si un <a href=\"https:\/\/www.ecoticias.com\/hoyeco\/musk-robot-humanoide-optimus\/26045\/\">robot<\/a> puede aprender a hablar y cantar solo mirando v\u00eddeos, como har\u00eda un chaval con su m\u00f3vil, \u00bfcu\u00e1nto tardar\u00e1 en formar parte del paisaje cotidiano de casas, colegios o residencias sin que casi nos demos cuenta?<\/p>\n\n\n\n<p>El estudio cient\u00edfico que describe este trabajo, titulado \u201cLearning Realistic Lip Motions for Humanoid Face Robots\u201d, ha sido publicado en la revista <a href=\"https:\/\/www.science.org\/doi\/10.1126\/scirobotics.adx3017\" target=\"_blank\" rel=\"noopener\"><em>Science Robotics<\/em><\/a>.<\/p>\n\n\n\n<p>Foto: Columbia Engineering<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Un robot humanoide ha logrado algo que hasta hace muy poco sonaba a ciencia ficci\u00f3n. EMO, desarrollado por un equipo &#8230; <\/p>\n<p class=\"read-more-container\"><a title=\"Un robot vio cientos de horas de YouTube y lo que aprendi\u00f3 dej\u00f3 a los cient\u00edficos sin palabras\" class=\"read-more button\" href=\"https:\/\/www.ecoticias.com\/hoyeco\/un-robot-vio-cientos-de-horas-de-youtube-y-lo-que-aprendio-dejo-a-los-cientificos-sin-palabras\/33580\/#more-33580\" aria-label=\"Leer m\u00e1s sobre Un robot vio cientos de horas de YouTube y lo que aprendi\u00f3 dej\u00f3 a los cient\u00edficos sin palabras\">Read more<\/a><\/p>\n","protected":false},"author":17,"featured_media":33581,"comment_status":"open","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[68],"tags":[],"class_list":["post-33580","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ciencia","resize-featured-image"],"_links":{"self":[{"href":"https:\/\/www.ecoticias.com\/hoyeco\/wp-json\/wp\/v2\/posts\/33580","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.ecoticias.com\/hoyeco\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.ecoticias.com\/hoyeco\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.ecoticias.com\/hoyeco\/wp-json\/wp\/v2\/users\/17"}],"replies":[{"embeddable":true,"href":"https:\/\/www.ecoticias.com\/hoyeco\/wp-json\/wp\/v2\/comments?post=33580"}],"version-history":[{"count":1,"href":"https:\/\/www.ecoticias.com\/hoyeco\/wp-json\/wp\/v2\/posts\/33580\/revisions"}],"predecessor-version":[{"id":33582,"href":"https:\/\/www.ecoticias.com\/hoyeco\/wp-json\/wp\/v2\/posts\/33580\/revisions\/33582"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.ecoticias.com\/hoyeco\/wp-json\/wp\/v2\/media\/33581"}],"wp:attachment":[{"href":"https:\/\/www.ecoticias.com\/hoyeco\/wp-json\/wp\/v2\/media?parent=33580"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.ecoticias.com\/hoyeco\/wp-json\/wp\/v2\/categories?post=33580"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.ecoticias.com\/hoyeco\/wp-json\/wp\/v2\/tags?post=33580"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}