<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0"><channel><title><![CDATA[Integrarobot]]></title><description><![CDATA[Integrarobot es una iniciativa de Javier Martín para ayudar a empresas y profesionales a descubrir las oportunidades que ofrecen los robots impulsados por Inteligencia Artificial. Únete a la Comunidad de Pioneros y aprovecha el momento.]]></description><link>https://www.integrarobot.com</link><image><url>https://substackcdn.com/image/fetch/$s_!i-lp!,w_256,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F07accbad-1702-4b47-8b26-484869401d03_1042x1042.png</url><title>Integrarobot</title><link>https://www.integrarobot.com</link></image><generator>Substack</generator><lastBuildDate>Thu, 30 Apr 2026 16:07:01 GMT</lastBuildDate><atom:link href="https://www.integrarobot.com/feed" rel="self" type="application/rss+xml"/><copyright><![CDATA[Javier Martín]]></copyright><language><![CDATA[es]]></language><webMaster><![CDATA[integrarobot@substack.com]]></webMaster><itunes:owner><itunes:email><![CDATA[integrarobot@substack.com]]></itunes:email><itunes:name><![CDATA[Javier Martín]]></itunes:name></itunes:owner><itunes:author><![CDATA[Javier Martín]]></itunes:author><googleplay:owner><![CDATA[integrarobot@substack.com]]></googleplay:owner><googleplay:email><![CDATA[integrarobot@substack.com]]></googleplay:email><googleplay:author><![CDATA[Javier Martín]]></googleplay:author><itunes:block><![CDATA[Yes]]></itunes:block><item><title><![CDATA[UPS quiere comprar miles de robots]]></title><description><![CDATA[Las ventas de robots humanoides comienzan a acelerarse y en este art&#237;culo vamos a ver algunos ejemplos de ello.]]></description><link>https://www.integrarobot.com/p/ups-quiere-comprar-miles-de-robots</link><guid isPermaLink="false">https://www.integrarobot.com/p/ups-quiere-comprar-miles-de-robots</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Wed, 29 Apr 2026 10:03:02 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!LheF!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F185272ce-f836-4d53-bfb8-6e26f39a1611_1200x579.jpeg" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!LheF!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F185272ce-f836-4d53-bfb8-6e26f39a1611_1200x579.jpeg" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!LheF!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F185272ce-f836-4d53-bfb8-6e26f39a1611_1200x579.jpeg 424w, https://substackcdn.com/image/fetch/$s_!LheF!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F185272ce-f836-4d53-bfb8-6e26f39a1611_1200x579.jpeg 848w, https://substackcdn.com/image/fetch/$s_!LheF!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F185272ce-f836-4d53-bfb8-6e26f39a1611_1200x579.jpeg 1272w, https://substackcdn.com/image/fetch/$s_!LheF!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F185272ce-f836-4d53-bfb8-6e26f39a1611_1200x579.jpeg 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!LheF!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F185272ce-f836-4d53-bfb8-6e26f39a1611_1200x579.jpeg" width="1200" height="579" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/185272ce-f836-4d53-bfb8-6e26f39a1611_1200x579.jpeg&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:579,&quot;width&quot;:1200,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:null,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:null,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:null,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!LheF!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F185272ce-f836-4d53-bfb8-6e26f39a1611_1200x579.jpeg 424w, https://substackcdn.com/image/fetch/$s_!LheF!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F185272ce-f836-4d53-bfb8-6e26f39a1611_1200x579.jpeg 848w, https://substackcdn.com/image/fetch/$s_!LheF!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F185272ce-f836-4d53-bfb8-6e26f39a1611_1200x579.jpeg 1272w, https://substackcdn.com/image/fetch/$s_!LheF!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F185272ce-f836-4d53-bfb8-6e26f39a1611_1200x579.jpeg 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p>&#191;Qu&#233; puede llevar a <a href="https://x.com/adcock_brett/status/2046975249686941711">Brett Adcock</a> a publicar un gr&#225;fico sobre el crecimiento de la fabricaci&#243;n de los robots <strong>Figure</strong> en el cual no aparecen los datos del eje Y?</p><p>Estoy seguro de que sab&#237;a que esto le iba a generar muchas cr&#237;ticas e incluso desconfianza. No parece una actitud propia de un empresario que quiere mejorar el mundo a trav&#233;s de su tecnolog&#237;a.</p><p>Pero no voy a ser yo quien critique a uno de los empresarios que m&#225;s esfuerzos est&#225; haciendo para hacer realidad el sue&#241;o de los robots humanoides, as&#237; que vamos con lo importante: las cifras de fabricaci&#243;n de los robots se est&#225;n disparando.</p><p>Si el gr&#225;fico es cierto, aunque incompleto, lo que parece claro es que en los &#250;ltimos meses la fabricaci&#243;n se ha disparado, pasando de 0 o 1 robot en abril en 2025 a un n&#250;mero que deber&#237;a ser de varios cientos de robots fabricados al mes en estos momentos, lo cual nos llevar&#237;a a una cifra de miles a lo largo de este a&#241;o.</p><p>Entonces, si nos remitimos a las cifras que publica la empresa, tenemos el dato de la capacidad de fabricaci&#243;n que tiene o tendr&#225; la f&#225;brica <a href="https://www.figure.ai/news/botq">BotQ</a> &#8220;<em>con capacidad para producir hasta <strong>12.000 robots humanoides al a&#241;o</strong></em>&#8221;.</p><h3>&#128230; UPS quiere comprar 10.000 robots a Figure</h3><p>Aqu&#237; es donde la cosa se pone interesante, porque en una actividad tan nueva, donde hay tanta incertidumbre, lo normal ser&#237;a ser prudente a la hora de lanzarse a producir en masa, no sea que el mercado no acepte a&#250;n el producto por su inmaduro estado de desarrollo.</p><p>Pero ya sabes, el que no arriesga no gana, y la recompensa es tan alta que muchas empresas se est&#225;n lanzando a comprar los robots, aunque a&#250;n est&#233;n en una fase prematura de desarrollo. Recuerda lo que siempre digo, el primer iPhone no ten&#237;a GPS, pero la gente se lanz&#243; en masa a comprarlo.</p><p>Veamos otros ejemplos de c&#243;mo se est&#225;n lanzando las empresas a comprar o al menos a encargar robots humanoides.</p><ul><li><p><strong>Schaeffler</strong> planea desplegar m&#225;s de 1.000 humanoides rob&#243;ticos AEON de <a href="https://hexagon.com/company/newsroom/press-releases/2026/hexagon-schaeffler-deploy-aeon-humanoids-across-global-factory-network">Hexagon</a> en sus f&#225;bricas globales para 2032</p></li><li><p>Los operadores de la <a href="https://www.scmp.com/economy/china-economy/article/3351323/china-plans-invest-billions-robot-army-run-its-power-grid">red el&#233;ctrica de China</a> planean comprar miles de robots solo en 2026, incluyendo dispositivos para inspeccionar y mantener infraestructuras vitales.</p></li><li><p><a href="https://www.robotera.com/en/">ROBOTERA</a>, que est&#225; desplegando su robot humanoide L7 en m&#225;s de 10 centros log&#237;sticos operados por China Post, SF Express Group y otras empresas del sector.</p></li></ul><div class="native-video-embed" data-component-name="VideoPlaceholder" data-attrs="{&quot;mediaUploadId&quot;:&quot;44c4b46d-53d1-449e-a6f7-9dab64c95c86&quot;,&quot;duration&quot;:null}"></div><h3>&#161;Esto marcha!</h3><p>Mi conclusi&#243;n tras pensar en todo esto es que las cosas avanzan a su debido ritmo. As&#237; tenemos tiempo para <strong>prepararnos</strong> y que no se nos venga todo encima como ha ocurrido con la IA Generativa, donde mucha gente anda a&#250;n paralizada porque no sabe c&#243;mo afrontar el gran cambio que se est&#225; produciendo.</p><p>En todo caso, tampoco me parece prudente quedarse esperando a que los robots est&#233;n por todos lados y por eso pienso que es el mejor momento para aprender de rob&#243;tica. As&#237; que he lanzado un <strong>curso</strong> en directo online donde contar todo lo que conozco sobre <strong>IA F&#237;sica</strong> y rob&#243;tica humanoide. Ser&#225; los d&#237;as 12, 13 y 14 de mayo de 18 a 20h y ya te puedes apuntar. Para hacerlo tienes que entrar a formar parte de la comunidad pioneros robots, que tiene un coste de 10 euros al mes o 100 euros al a&#241;o. Adem&#225;s podr&#225;s participar en los encuentros mensuales de la comunidad y recibir contenido exclusivo.</p><div><hr></div><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://www.integrarobot.com/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">Ampl&#237;a tu suscripci&#243;n y podr&#225;s hacer el <strong>curso de rob&#243;tica e IA F&#237;sica</strong>.</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div><div><hr></div><h2>M&#225;s noticias sobre IA y rob&#243;tica</h2><p>&#129470; <a href="https://sisteplant.com/que-ofrecemos/r-bot/">Sisteplant</a> es una empresa espa&#241;ola que ha creado <strong>R Bot</strong>, un software de automatizaci&#243;n para actividades de inspecci&#243;n, mantenimiento, calidad, supervisi&#243;n de producci&#243;n y seguridad en plantas industriales, edificios e infraestructuras, que controla una flota de robots m&#243;viles que trabajan coordinados entre s&#237;.</p><p>&#129504; <a href="https://sereact.ai/posts/series-b">Sereact</a> levanta 110 millones de d&#243;lares para escalar Cortex 2.0 y entrar en Estados Unidos. La compa&#241;&#237;a afirma tener m&#225;s de 200 sistemas desplegados en Europa y m&#225;s de 1.000 millones de picks reales, reforzando la idea de que el dato operativo en almac&#233;n puede convertirse en una ventaja acumulativa para la <strong>IA f&#237;sica</strong>.</p><p>&#128734; <a href="https://x.com/UnitreeRobotics/status/2047257759473946705">Unitree</a> demuestra que los humanoides no tienen por qu&#233; limitarse a caminar: tambi&#233;n pueden incorporar <strong>ruedas</strong> cuando la tarea lo permita. La idea interesante no es el truco visual, sino el enfoque pragm&#225;tico: si el objetivo es crear robots de prop&#243;sito general, la forma humanoide puede combinarse con soluciones de movilidad m&#225;s eficientes.</p><p>&#129514; <a href="https://blogs.sw.siemens.com/simcenter/the-future-of-robot-training/">Siemens</a> explica c&#243;mo combinar simulaci&#243;n y pruebas reales puede acelerar el <strong>entrenamiento de robots</strong>. Su enfoque apunta a reducir el coste y el riesgo del aprendizaje f&#237;sico, usando gemelos digitales y peque&#241;as cantidades de datos reales para ajustar el comportamiento del robot ante terrenos, fricci&#243;n y condiciones cambiantes.</p><p>&#128184; <a href="https://www.pudurobotics.com/en/news/pudu-robotics-raises-150-million-exceeds-1-5-billion-valuation">Pudu Robotics</a> capta cerca de <strong>150 millones de d&#243;lares</strong> y supera una valoraci&#243;n de 1.500 millones. La compa&#241;&#237;a china, conocida por robots de servicio, limpieza y log&#237;stica, quiere usar el capital para avanzar en embodied AI, ampliar su cat&#225;logo y escalar fabricaci&#243;n y cadena de suministro global.</p><p>&#128747; <a href="https://www.businesswire.com/news/home/20260421367847/en/AK-Robotics-Raises-%248-Million-to-Build-Autonomous-Mobility-Infrastructure-for-Airports">A&amp;K Robotics</a> consigue 8 millones de d&#243;lares canadienses para desplegar Cruz, su robot aut&#243;nomo de movilidad para <strong>aeropuertos</strong>. El caso es interesante porque lleva la autonom&#237;a a entornos interiores muy concurridos, donde la accesibilidad, la seguridad y la integraci&#243;n operativa pesan tanto como la navegaci&#243;n.</p><p>&#127981; <a href="https://newsroom.accenture.com/news/2026/accenture-vodafone-procure-connect-and-sap-pilot-humanoid-robotics-in-warehouse-operations">Vodafone</a> junto con <strong>SAP</strong> y <strong>Accenture</strong> prueban humanoides en un almac&#233;n conectados con SAP Extended Warehouse Management. El robot inspecciona productos, pal&#233;s, espacio infrautilizado y riesgos de seguridad, mostrando c&#243;mo la rob&#243;tica humanoide empieza a integrarse en procesos empresariales reales, no solo en demos aisladas.</p><p>&#127468;&#127479; <a href="https://x.com/CyberRobooo/status/2048392629000573229">MARK One</a> aparece como el primer humanoide industrial dise&#241;ado y construido en <strong>Grecia</strong>. Desarrollado por <strong>AXL Imperial</strong>, combina movilidad aut&#243;noma y brazos para tareas como paletizado, alimentaci&#243;n de m&#225;quinas, control de calidad y manipulaci&#243;n de materiales.</p><p>&#128218; <a href="https://docs.nvidia.com/learning/physical-ai/getting-started-with-isaac-sim/latest/building-your-first-robot-in-isaac-sim/index.html">NVIDIA</a> publica un m&#243;dulo pr&#225;ctico para construir el primer robot en <strong>Isaac Sim</strong>. La gu&#237;a cubre creaci&#243;n del robot, f&#237;sicas, sensores, control y conexi&#243;n con ROS 2, reforzando el papel de Isaac Sim como puerta de entrada para formar talento y acelerar proyectos de simulaci&#243;n rob&#243;tica.</p><p>&#127955; <a href="https://ace.ai.sony/">Sony AI</a> presenta Ace, un robot capaz de competir contra jugadores de &#233;lite en <strong>tenis de mesa </strong>. El proyecto combina sensores de visi&#243;n de baja latencia, aprendizaje por refuerzo y hardware de alta velocidad para responder en milisegundos, convirti&#233;ndose en un hito de IA f&#237;sica en interacci&#243;n din&#225;mica y competitiva.</p>]]></content:encoded></item><item><title><![CDATA[Cómo invertir en robótica]]></title><description><![CDATA[La inversi&#243;n en empresas de rob&#243;tica es una buena oportunidad, no s&#243;lo por el aspecto financiero sino tambi&#233;n de aprendizaje siendo accionista de las empresas.]]></description><link>https://www.integrarobot.com/p/como-invertir-en-robotica</link><guid isPermaLink="false">https://www.integrarobot.com/p/como-invertir-en-robotica</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Fri, 24 Apr 2026 10:49:49 GMT</pubDate><enclosure url="https://substack-video.s3.amazonaws.com/video_upload/post/195333353/2646392f-1251-4e94-a3bc-f48a4691c8f2/transcoded-06145.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>Invertir en rob&#243;tica es realmente invertir en la siguiente fase de la IA. En los &#250;ltimos a&#241;os estamos viendo c&#243;mo IA ha transformado el mundo digital. Pero ahora comienza a salir del ordenador para interactuar con el mundo f&#237;sico. Esa transici&#243;n es lo que llamamos <strong>IA f&#237;sica</strong> y puede suponer una gran oportunidad de inversi&#243;n, como vamos a ver a continuaci&#8230;</p>
      <p>
          <a href="https://www.integrarobot.com/p/como-invertir-en-robotica">
              Read more
          </a>
      </p>
   ]]></content:encoded></item><item><title><![CDATA[Lo que la nueva mano de Optimus puede enseñarnos 🖐️]]></title><description><![CDATA[&#191;Lograr&#225; Tesla un hito para la manipulaci&#243;n similar al alcanzado por Honor para la locomoci&#243;n?]]></description><link>https://www.integrarobot.com/p/lo-que-la-nueva-mano-de-optimus-puede</link><guid isPermaLink="false">https://www.integrarobot.com/p/lo-que-la-nueva-mano-de-optimus-puede</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Wed, 22 Apr 2026 09:57:33 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!DDR7!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2e3e10d9-6ff0-4030-a98a-586521494d21_1024x682.jpeg" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>&#8220;El que no corre, vuela&#8221; puede ser una buena forma de representar lo que est&#225; ocurriendo con la tecnolog&#237;a de IA F&#237;sica y los robots humanoides.</p><p>Hoy voy a aprovechar dos noticias de m&#225;xima actualidad para representarlo.</p><ol><li><p>La <strong>media marat&#243;n</strong> de <strong>robots</strong> humanoides de Pek&#237;n.</p></li><li><p>La nueva <strong>mano</strong> de <strong>Optimus</strong>.</p></li></ol><div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!DDR7!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2e3e10d9-6ff0-4030-a98a-586521494d21_1024x682.jpeg" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!DDR7!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2e3e10d9-6ff0-4030-a98a-586521494d21_1024x682.jpeg 424w, https://substackcdn.com/image/fetch/$s_!DDR7!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2e3e10d9-6ff0-4030-a98a-586521494d21_1024x682.jpeg 848w, https://substackcdn.com/image/fetch/$s_!DDR7!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2e3e10d9-6ff0-4030-a98a-586521494d21_1024x682.jpeg 1272w, https://substackcdn.com/image/fetch/$s_!DDR7!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2e3e10d9-6ff0-4030-a98a-586521494d21_1024x682.jpeg 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!DDR7!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2e3e10d9-6ff0-4030-a98a-586521494d21_1024x682.jpeg" width="1024" height="682" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/2e3e10d9-6ff0-4030-a98a-586521494d21_1024x682.jpeg&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:682,&quot;width&quot;:1024,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:null,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:null,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:null,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!DDR7!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2e3e10d9-6ff0-4030-a98a-586521494d21_1024x682.jpeg 424w, https://substackcdn.com/image/fetch/$s_!DDR7!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2e3e10d9-6ff0-4030-a98a-586521494d21_1024x682.jpeg 848w, https://substackcdn.com/image/fetch/$s_!DDR7!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2e3e10d9-6ff0-4030-a98a-586521494d21_1024x682.jpeg 1272w, https://substackcdn.com/image/fetch/$s_!DDR7!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2e3e10d9-6ff0-4030-a98a-586521494d21_1024x682.jpeg 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p>El 19 de abril de 2026 m&#225;s de 100 <strong>robots humanoides</strong> de fabricaci&#243;n <strong>china</strong> corrieron junto a 12000 corredores humanos en un recorrido de 21 kil&#243;metros en el distrito E-Town de Pek&#237;n. Lo que ocurri&#243; a lo largo de esos 21 kil&#243;metros puede calificarse al mismo tiempo como asombroso, ca&#243;tico e incluso hilarante, pero sobre todo hay que reconocer que es otro de esos hitos que nos est&#225;n mostrando el futuro de la rob&#243;tica.</p><p><strong>Lightning</strong> es el nombre del robot ganador de la carrera, su fabricante es <strong>Honor</strong> y ha completado el recorrido en 50 minutos y 26 segundos, pulverizando el r&#233;cord mundial de media marat&#243;n de 57 minutos, establecido por el ugand&#233;s Jacob Kiplimo, por casi siete minutos. Honor no solo gan&#243; la carrera, sino que sus robots coparon el podio, obteniendo el primer, segundo y tercer lugar.</p><p>De la carrera destacar un par de aspectos que nos hablan de lo r&#225;pido que est&#225; evolucionando y mejorando esta tecnolog&#237;a:</p><ol><li><p>El robot ganador de la misma carrera el a&#241;o pasado termin&#243; en 2 horas y 40 minutos. Lightning de Honor complet&#243; el mismo recorrido en 50 minutos. Esto nos indica que estamos entrando en plena <strong>exponencialidad</strong>.</p></li><li><p>En la carrera de este a&#241;o el 40% de los robots corr&#237;an de forma <strong>aut&#243;noma</strong>, frente a la carrera del a&#241;o anterior donde el porcentaje de <strong>teleoperaci&#243;n</strong> fue mucho mayor. Esto es muy importante porque nos habla de c&#243;mo est&#225; mejorando el software, no s&#243;lo el hardware.</p></li></ol><p>Bien, ahora que sabemos que los robots corren que vuelan y que Honor se est&#225; metiendo a tope con esto de los humanoides veamos lo de la <a href="https://patentscope.wipo.int/search/en/detail.jsf?docId=WO2026080687&amp;_cid=P21-MO1L3J-43110-1">nueva mano</a> que ha dise&#241;ado <strong>Tesla</strong> para <strong>Optimus</strong>.</p><div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!twW6!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F1e8664b7-fcda-44d5-b809-ec193098aef7_1254x1254.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!twW6!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F1e8664b7-fcda-44d5-b809-ec193098aef7_1254x1254.png 424w, https://substackcdn.com/image/fetch/$s_!twW6!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F1e8664b7-fcda-44d5-b809-ec193098aef7_1254x1254.png 848w, https://substackcdn.com/image/fetch/$s_!twW6!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F1e8664b7-fcda-44d5-b809-ec193098aef7_1254x1254.png 1272w, https://substackcdn.com/image/fetch/$s_!twW6!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F1e8664b7-fcda-44d5-b809-ec193098aef7_1254x1254.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!twW6!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F1e8664b7-fcda-44d5-b809-ec193098aef7_1254x1254.png" width="1254" height="1254" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/1e8664b7-fcda-44d5-b809-ec193098aef7_1254x1254.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:1254,&quot;width&quot;:1254,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:null,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:null,&quot;href&quot;:null,&quot;belowTheFold&quot;:true,&quot;topImage&quot;:false,&quot;internalRedirect&quot;:null,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!twW6!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F1e8664b7-fcda-44d5-b809-ec193098aef7_1254x1254.png 424w, https://substackcdn.com/image/fetch/$s_!twW6!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F1e8664b7-fcda-44d5-b809-ec193098aef7_1254x1254.png 848w, https://substackcdn.com/image/fetch/$s_!twW6!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F1e8664b7-fcda-44d5-b809-ec193098aef7_1254x1254.png 1272w, https://substackcdn.com/image/fetch/$s_!twW6!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F1e8664b7-fcda-44d5-b809-ec193098aef7_1254x1254.png 1456w" sizes="100vw" loading="lazy"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p>Lo que Tesla nos est&#225; contando con esta nueva patente es que la cosa con Optimus va muy en serio. S&#237;, suena raro, pero es que viendo las demos del resto de empresas podr&#237;a parecer que nos basta con un robot que hace las cosas y punto. Por ejemplo en la mayor&#237;a de demos de empresas de <strong>IA F&#237;sica</strong> lo que vemos son brazos rob&#243;ticos con pinzas, que pueden manipular todo tipo de objetos, incluso parece que de forma bastante precisa. Pero en Tesla andan pensando en otra cosa.</p><p>El nivel de <strong>excelencia</strong> que est&#225; buscando Tesla con su robot es otra historia. Si has probado sus coches sabr&#225;s de qu&#233; te hablo. Y de conseguir algo similar, estaremos ante una tecnolog&#237;a que no dejar&#225; a nadie indiferente.</p><p>De lo que hablo es de reinventar el concepto de robot. Se trata de comparar lo que est&#225;n haciendo el resto de fabricantes, que buscan ofrecer lo b&#225;sico para resolver las actividades cotidianas que se puedan encomendar al robot, frente a algo totalmente distinto que busca ir m&#225;s all&#225; de la utilidad inmediata y superar incluso las capacidades humanas.</p><p>Por verlo como un s&#237;mil, la mano de cualquier robot ser&#237;a como la m&#237;a, bastante torpe para la mayor&#237;a de los trabajos manuales, sin embargo la mano de Optimus aspira a tener la destreza equivalente a la de un cirujano.</p><p>Creo que esto justifica los <strong>retrasos en la fabricaci&#243;n</strong> del robot de Tesla, no me gusta que sea as&#237; porque me gustar&#237;a poder comprar el robot ya mismo, pero la diferencia en cuanto a la calidad final del producto har&#225; que valga la pena la espera.</p><h2>&#191;Lograr&#225; Tesla un hito para la manipulaci&#243;n similar al alcanzado por Honor para la locomoci&#243;n?</h2><p>Tener robots r&#225;pidos, flexibles y fuertes est&#225; bien, pero sobre todo queremos tener robots h&#225;biles y eso es lo que nos transmite la nueva patente de la mano de Tesla Optimus.</p><p>Una patente que describe una arquitectura mec&#225;nica bastante distinta a la que se suele ver en la mayor&#237;a de robots actuales, que suelen ser relativamente simples. B&#225;sicamente una pinza o un sistema con pocos grados de libertad que permite agarrar objetos grandes pero que tiene bastantes limitaciones cuando se trata de manipular cosas peque&#241;as o delicadas.</p><p>Por lo tanto, Tesla est&#225; intentando resolver ese problema con un dise&#241;o m&#225;s cercano a la <strong>anatom&#237;a humana</strong>.</p><p>La idea central de la patente es elegante desde el punto de vista de ingenier&#237;a: los motores que generan el movimiento no est&#225;n dentro de la mano, sino en el antebrazo. Desde ah&#237; el movimiento se transmite a los dedos mediante cables que funcionan de forma similar a los tendones del brazo humano.</p><p>Este detalle tiene varias consecuencias importantes.</p><ol><li><p><strong>Ligereza</strong>: en rob&#243;tica existe un principio que muestra cuanto m&#225;s peso colocas en el extremo de una articulaci&#243;n, m&#225;s dif&#237;cil es controlar el movimiento con precisi&#243;n. Al desplazar los actuadores al antebrazo se reduce la masa en la mano y se mejora el control fino.</p></li><li><p><strong>Densidad mec&#225;nica</strong>: una mano humana tiene muchos grados de libertad y replicar esa complejidad dentro de un volumen peque&#241;o es extremadamente dif&#237;cil. El uso de cables permite introducir m&#250;ltiples articulaciones en los dedos sin tener que meter motores en cada falange.</p></li><li><p><strong>Precisi&#243;n</strong>: los cables recorren el interior de la palma y la mu&#241;eca a trav&#233;s de canales y poleas dise&#241;adas para reducir la fricci&#243;n y mantener la tensi&#243;n adecuada. Esto permite controlar con m&#225;s delicadeza la fuerza aplicada por cada dedo.</p></li></ol><p>Entonces, si nos fijamos con detalle en el dise&#241;o que muestra la patente, el objetivo parece claro. No se trata solo de agarrar objetos, sino de manipularlos con destreza casi humana. Y esto aporta un valor incalculable porque ampl&#237;a las posibilidades de d&#243;nde y c&#243;mo puede trabajar Optimus en todo tipo de situaciones y lugares (La Luna y Marte incluidos)</p><div><hr></div><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://www.integrarobot.com/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">&#191;Est&#225;s pensando c&#243;mo subirte a la ola de la rob&#243;tica y la IA F&#237;sica? &#250;nete a la comunidad pioneros robots y estar&#225;s dentro.</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div><div><hr></div><h2>M&#225;s noticias sobre IA F&#237;sica y rob&#243;tica</h2><p>&#129427; <a href="https://www.skild.ai/blogs/skild-zebra">Skild AI</a> compra <strong>Zebra Technologies</strong> con el objetivo de implementar su sistema de inteligencia artificial integral en almacenes. Esto permitir&#225; un aumento considerable de la productividad y a&#241;adir&#225; un nuevo elemento a su ciclo de datos para entrenamiento de robots.</p><p>&#128187; <a href="https://techcrunch.com/2026/04/16/this-simulation-startup-wants-to-be-the-cursor-for-physical-ai/">Antioch</a> quiere ser &#8220;el Cursor&#8221; de la IA F&#237;sica. La startup desarrolla herramientas de simulaci&#243;n para desarrolladores de robots, cerrando la brecha entre la <strong>simulaci&#243;n</strong> y la realidad, logrando que los entornos virtuales sean tan realistas como para que los robots entrenados en ellos puedan operar de manera confiable en el mundo f&#237;sico.</p><p>&#129309; <a href="https://neura-robotics.com/neura-robotics-and-amazon-web-services-enter-collaboration/">Neura Robotics</a> y <strong>AWS</strong> llegan a un acuerdo estrat&#233;gico para acelerar la <strong>IA F&#237;sica</strong> a gran escala, combinando la plataforma de rob&#243;tica cognitiva de NEURA con la infraestructura en la nube y de IA de AWS para ayudar a entrenar, validar e implementar la pr&#243;xima generaci&#243;n de robots inteligentes.</p><p>&#129516; <a href="https://www.anyscale.com/resources/case-study/multiply-labs">Anyscale</a> presenta Multiply Labs donde se usa la IA y la rob&#243;tica para impulsar la <strong>biofabricaci&#243;n</strong> de alto rendimiento y libre de contaminaci&#243;n. Mediante el entrenamiento de modelos de IA f&#237;sica m&#225;s grandes y complejos en la plataforma multi-nube de, Multiply Labs permite que los robots trabajen en la industria de productos biol&#243;gicos para medicamentos.</p><p>&#128249; <a href="https://mimic-video.github.io/">Mimic-video</a> es un novedoso <strong>modelo de acci&#243;n-v&#237;deo</strong> (VAM) que combina un modelo de v&#237;deo preentrenado a escala de internet con un decodificador de acciones basado en la coincidencia de flujos, condicionado a sus representaciones latentes.</p><p>&#128247; <a href="https://github.com/URLab-Sim/UnrealRoboticsLab">URLab</a> es un plugin para <strong>Unreal Engine</strong> que integra el motor de f&#237;sica <strong>MuJoCo</strong> directamente en el editor y el entorno de ejecuci&#243;n lo cual permite disponer de un simulador de rob&#243;tica de c&#243;digo abierto y alta fidelidad que integra la renderizaci&#243;n fotorrealista de Unreal Engine con la f&#237;sica de precisi&#243;n de MuJoCo.</p><p>&#128664; <a href="https://finance.yahoo.com/sectors/technology/articles/coco-robotics-blindsquare-partner-city-150000740.html">Coco</a> est&#225; convirtiendo sus 10.000 robots de reparto en una red de sensores en tiempo real en colaboraci&#243;n con <strong>BlindSquare</strong>, proporcionando alertas de peligro en tiempo real a los peatones ciegos en seis ciudades de Estados Unidos y Europa</p><p>&#9883;&#65039; <a href="https://techcrunch.com/2026/04/16/physical-intelligence-a-hot-robotics-startup-says-its-new-robot-brain-can-figure-out-tasks-it-was-never-taught/?utm_source=robotnews.therundown.ai&amp;utm_medium=newsletter&amp;utm_campaign=humanoid-smokes-half-marathon-record">Physical Intelligence</a> presenta su nuevo modelo de IA F&#237;sica <strong>&#960;0.7</strong> que por primera vez muestra indicios tempranos de que un &#250;nico sistema generalista puede improvisar, combinando habilidades aprendidas y entrenamiento a escala web para manejar tareas del mundo real para las que nunca se le ense&#241;&#243; expl&#237;citamente.</p>]]></content:encoded></item><item><title><![CDATA[¿Cómo de grande va a ser el mercado de la IA Física? - Curso Robots Humanoides]]></title><description><![CDATA[&#191;Es importante fijarse en las predicciones del volumen de mercado que puede alcanzar el negocio de la IA F&#237;sica?]]></description><link>https://www.integrarobot.com/p/volumen-de-mercado-curso-robots-humanoides</link><guid isPermaLink="false">https://www.integrarobot.com/p/volumen-de-mercado-curso-robots-humanoides</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Fri, 17 Apr 2026 11:54:55 GMT</pubDate><enclosure url="https://substack-video.s3.amazonaws.com/video_upload/post/194505926/3f4cc991-2642-47e9-93f8-684ea3c858c9/transcoded-05842.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>Cuando hablamos del futuro de los robots humanoides y nos fijamos en los informes que publican los bancos de inversi&#243;n aparecen cifras que parecen absurdas.</p><p>Por ejemplo, un informe de Goldman Sachs estima que el mercado podr&#237;a alcanzar unos <strong>38.000 millones de d&#243;lares en 2035</strong>. Citi eleva esa cifra hasta <strong>7 billones de d&#243;lares en 2050</strong>. Morgan Stanley plante&#8230;</p>
      <p>
          <a href="https://www.integrarobot.com/p/volumen-de-mercado-curso-robots-humanoides">
              Read more
          </a>
      </p>
   ]]></content:encoded></item><item><title><![CDATA[Robots al rescate ⚠️]]></title><description><![CDATA[De los robots como espect&#225;culo a los robots que salvan vidas]]></description><link>https://www.integrarobot.com/p/robots-al-rescate</link><guid isPermaLink="false">https://www.integrarobot.com/p/robots-al-rescate</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Wed, 15 Apr 2026 10:02:40 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!L1NM!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F438a234f-9b96-4046-bb58-f520eca022c8_2048x1099.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!L1NM!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F438a234f-9b96-4046-bb58-f520eca022c8_2048x1099.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!L1NM!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F438a234f-9b96-4046-bb58-f520eca022c8_2048x1099.png 424w, https://substackcdn.com/image/fetch/$s_!L1NM!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F438a234f-9b96-4046-bb58-f520eca022c8_2048x1099.png 848w, https://substackcdn.com/image/fetch/$s_!L1NM!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F438a234f-9b96-4046-bb58-f520eca022c8_2048x1099.png 1272w, https://substackcdn.com/image/fetch/$s_!L1NM!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F438a234f-9b96-4046-bb58-f520eca022c8_2048x1099.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!L1NM!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F438a234f-9b96-4046-bb58-f520eca022c8_2048x1099.png" width="1456" height="781" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/438a234f-9b96-4046-bb58-f520eca022c8_2048x1099.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:781,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:null,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:null,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:null,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!L1NM!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F438a234f-9b96-4046-bb58-f520eca022c8_2048x1099.png 424w, https://substackcdn.com/image/fetch/$s_!L1NM!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F438a234f-9b96-4046-bb58-f520eca022c8_2048x1099.png 848w, https://substackcdn.com/image/fetch/$s_!L1NM!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F438a234f-9b96-4046-bb58-f520eca022c8_2048x1099.png 1272w, https://substackcdn.com/image/fetch/$s_!L1NM!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F438a234f-9b96-4046-bb58-f520eca022c8_2048x1099.png 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><blockquote><p><em>Para que los robots resulten realmente &#250;tiles en nuestra vida diaria y en la industria, deben ir m&#225;s all&#225; de seguir instrucciones; deben razonar sobre el mundo f&#237;sico.</em></p></blockquote><p>As&#237; de claro deja <strong>Google DeepMind</strong> en la presentaci&#243;n de la nueva versi&#243;n de <strong>Gemini Robotics</strong> que para que la IA pueda aportar valor en el mundo real debe evolucionar.</p><p>De esta forma <a href="https://deepmind.google/models/gemini-robotics/">Gemini Robotics-ER 1.6</a> se presenta como un modelo de IA F&#237;sica basado en el razonamiento que permite a los robots comprender su entorno con precisi&#243;n al mejorar el razonamiento espacial y la comprensi&#243;n multivista, ofreciendo un mayor nivel de autonom&#237;a a los robots que lo incorporen.</p><p>Este modelo se especializa en capacidades de razonamiento rob&#243;tico, incluyendo la comprensi&#243;n visual y espacial, la planificaci&#243;n de tareas y la detecci&#243;n de &#233;xito. Es capaz de ejecutar tareas mediante el uso nativo de herramientas como la b&#250;squeda de Google para encontrar informaci&#243;n y el uso de modelos de visi&#243;n-lenguaje-acci&#243;n (VLA).</p><p>Y lo mejor es que por primera vez Google DeepMind nos presenta un modelo de Gemini Robotics validado para cumplir con una funci&#243;n muy espec&#237;fica y con un alto valor a&#241;adido: la capacidad de <strong>lectura de instrumentos</strong>, que permite a los robots leer indicadores y visores complejos. Un caso de uso que se ha desarrollado a trav&#233;s de la colaboraci&#243;n que mantienen con <strong>Boston Dynamics</strong>.</p><p>Curiosamente esta utilidad presentada coincide con la que hace tiempo ya conoc&#237;amos estaba desarrollando la startup espa&#241;ola <a href="https://keybotic.com/es/">Keybotic</a> usando cuadr&#250;pedos para la inspecci&#243;n de instalaciones industriales, donde tambi&#233;n se pon&#237;a foco en que el robot pudiese fijarse en diferentes aparatos de medida para detectar anomal&#237;as o en localizar posibles problemas en las instalaciones como pod&#237;an ser escapes o vertidos de sustancias t&#243;xicas.</p><p>Por eso digo <strong>robots al rescate</strong>, porque estamos ante un caso de uso donde la utilidad que ofrece esta tecnolog&#237;a es enorme:</p><ol><li><p>Las instalaciones industriales son muy extensas y tienen much&#237;simos <strong>puntos cr&#237;ticos</strong> en los que pueden producirse todo tipo de circunstancias que pueden acabar provocando un incidente de seguridad. Por mucho que queramos tenerlo asegurado con personas vigilando o incluso con c&#225;maras ser&#237;a inviable. Tener robots que realizan rondas de vigilancia peri&#243;dica es mucho m&#225;s pr&#225;ctico y seguro.</p></li><li><p>Aunque este trabajo lo puedan hacer las personas, me parece injusto que tenga que haber gente que arriesgue sus vidas de esta forma. Creo que el foco de los que trabajamos en el mundo de la tecnolog&#237;a, especialmente en esto de la IA y la rob&#243;tica deber&#237;a ser encontrar soluciones a la problem&#225;tica laboral, pero no tanto porque falte gente sino por evitar exponerlos a este tipo de <strong>trabajos peligrosos</strong>.</p></li><li><p>La combinaci&#243;n de humano y robot es lo realmente importante. Estoy seguro de que si la persona que ahora anda realizando labores de vigilancia en las instalaciones puede hacer un <strong>trabajo intelectual</strong> en lugar de f&#237;sico, las condiciones de seguridad general van a aumentar significativamente y no me refiero s&#243;lo para esa persona sino en el caso de producirse un gran accidente que ponga en riesgo a la poblaci&#243;n en general.</p></li></ol><p>Otros casos de robots que vienen a nuestro rescate:</p><ul><li><p>Los propietarios de <strong>coches el&#233;ctricos</strong> con problemas de carga en ruta podr&#225;n contar con la ayuda de <a href="https://interestingengineering.com/transportation/china-byd-robot-ev-charging-tires">BYD</a> que ha solicitado una patente para un robot capaz de cargar veh&#237;culos el&#233;ctricos e inflar neum&#225;ticos simult&#225;neamente. El sistema comprueba de forma aut&#243;noma los niveles de bater&#237;a y la presi&#243;n de los neum&#225;ticos antes de ejecutar los servicios en una secuencia de circuito cerrado.</p></li><li><p><strong>K5 </strong>de<strong> </strong><a href="https://knightscope.com/products/k5">Knightscope</a> es un robot de seguridad que patrulla lugares p&#250;blicos equipado con c&#225;maras, sensores t&#233;rmicos, micr&#243;fonos y sistemas de reconocimiento de matr&#237;culas para detectar incidentes o comportamientos sospechosos. Estos robots funcionan de forma aut&#243;noma y generan grandes vol&#250;menes de datos de vigilancia para los equipos humanos de seguridad.</p></li><li><p>Los robots de <a href="https://www.runningbrainsrobotics.com/en/">Running Brains</a> se est&#225;n utilizando cada vez m&#225;s para seguridad perimetral en grandes instalaciones como refiner&#237;as, centrales energ&#233;ticas o puertos. Desde el terreno pueden monitorizar &#225;reas mucho m&#225;s amplias que una persona y detectar intrusiones o incidentes en tiempo real. Adem&#225;s, se est&#225;n integrando con <strong>drones</strong> para patrullas coordinadas en instalaciones industriales.</p></li><li><p>Empresas como <a href="https://www.rosen-group.com/en/global/robotic-pipeline-inspection-solutions">ROSEN</a> desarrollan robots capaces de desplazarse por el interior de tuber&#237;as industriales para evaluar su estado sin necesidad de desmontar la infraestructura. Estos robots se introducen en las conducciones y avanzan por su interior equipados con sensores ultras&#243;nicos y otras tecnolog&#237;as de diagn&#243;stico capaces de detectar corrosi&#243;n, grietas o variaciones en el grosor del metal. Gracias a estos sistemas se pueden anticipar fallos antes de que provoquen fugas o accidentes.</p></li></ul><p>Como ves, las aplicaciones de la rob&#243;tica son enormes y en el momento en el que comienzan a integrar la IA de Google o de otros desarrolladores, vamos a ver como la utilidad se dispara hasta l&#237;mites insospechados.</p><div><hr></div><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://www.integrarobot.com/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">&#191;Quieres <strong>aprender</strong> a tope sobre IA F&#237;sica? entra en nuestra <strong>comunidad</strong> y podr&#225;s participar el curso en directo del mes de mayo</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div><div><hr></div><h2>M&#225;s noticias sobre IA F&#237;sica y rob&#243;tica</h2><p>Menuda semana cargada de noticias, y eso que hago una selecci&#243;n, pero es que esto de los robots es un mercado en plena ebullici&#243;n.</p><p>&#129470; <a href="https://x.com/adcock_brett/status/2042675641037000868">Figure</a> anuncia la adquisici&#243;n de un centro de datos completo con GPU <strong>NVIDIA</strong> Blackwell para escalar el aprendizaje rob&#243;tico exponencialmente. Esta enorme capacidad de procesamiento respalda la estrategia de la empresa de utilizar redes neuronales integrales que ofrezcan la mayor autonom&#237;a a sus robots.</p><p>&#128722; <a href="https://www.unitree.com/R1">Unitree</a> pone a la venta en <strong>Aliexpress</strong> su robot R1 por 8122 d&#243;lares. Estamos ante un paso importante hacia la accesibilidad global de la rob&#243;tica en el comercio minorista. La publicaci&#243;n en el gigante del ecommerce incluye la versi&#243;n educativa, que ofrece interfaces de control abiertas integradas con IA y hasta 40 grados de libertad.</p><p>&#127981; <a href="https://foundryrobotics.ai/">Foundry Robotics</a> capta 19 millones de d&#243;lares de financiaci&#243;n asegurando que la <strong>fabricaci&#243;n</strong> estadounidense es uno de los problemas m&#225;s dif&#237;ciles de nuestra generaci&#243;n y ellos se han propuesto el objetivo de resolverlo.</p><p>&#128187; <a href="https://www.agibot.com/article/231/detail/60.html">Agibot</a> han integrado sus robots G2 en l&#237;neas de producci&#243;n de productos de electr&#243;nica de consumo del fabricante <strong>Longcheer Technology</strong> en funcionamiento en Nanchang, logrando una tasa de &#233;xito del 99 % y una producci&#243;n de 310 unidades por hora.</p><p>&#128161; <a href="https://syncere.com/">Syncere</a> es una startup con sede en Palo Alto que est&#225; adoptando un enfoque diferente para la rob&#243;tica dom&#233;stica con <strong>Lume</strong>, una l&#225;mpara de pie escultural que cuenta con un brazo rob&#243;tico dise&#241;ado para doblar la ropa. Con un precio de 1499 d&#243;lares, este robot ambiental busca automatizar las tareas dom&#233;sticas.</p><p>&#128176;<a href="https://www.jiemian.com/article/14230446.html">EngineAI</a> consigue 200 millones de d&#243;lares de financiaci&#243;n. En la ronda ha participado el gigante de la fabricaci&#243;n <strong>Luxshare Precision</strong> valorando la compa&#241;&#237;a en 1400 millones de d&#243;lares. Esta alianza proporciona la experiencia en la cadena de suministro necesaria para alcanzar el ambicioso objetivo de entregar 5000 unidades en 2026.</p><p>&#127475;&#127473; <a href="https://www.rdw.nl/en/news/2026/rdw-explanation-of-european-type-approval-tesla-with-provisional-validity-in-the-netherlands">Tesla</a> recibe aprobaci&#243;n para operar con sus sistema de conducci&#243;n aut&#243;noma <strong>FSD</strong> en <strong>Pa&#237;ses Bajos</strong>. Este sistema, controlado por el conductor, ha sido sometido a un exhaustivo examen y pruebas durante m&#225;s de un a&#241;o y medio en nuestra pista de pruebas y en v&#237;as p&#250;blicas.</p><p>&#128506;&#65039; <a href="https://www.nianticspatial.com/">Niantic</a>, los creadores de Google Earth y PokemonGo se meten en el negocio de los <strong>modelos del mundo</strong>. Su modelo geoespacial a gran escala se basa en datos del mundo real procedentes de sensores terrestres y a&#233;reos, procesados &#8203;&#8203;y alineados para entrenar modelos que ofrecen tres servicios: reconstrucci&#243;n, localizaci&#243;n y comprensi&#243;n.</p><p>&#9728;&#65039; <a href="https://techcrunch.com/2026/04/07/vc-eclipse-has-a-new-1-3b-to-back-and-build-physical-ai-startups">Eclipse Ventures</a>, el fondo de capital riesgo ha levantado 1.300 millones de d&#243;lares para invertir en startups de <strong>IA f&#237;sica</strong>, rob&#243;tica y tecnolog&#237;as industriales. La firma apuesta por empresas que combinan software, hardware y manufactura para transformar sectores como log&#237;stica, defensa o energ&#237;a. Su tesis es que la pr&#243;xima gran ola tecnol&#243;gica llegar&#225; desde el mundo f&#237;sico, no solo desde el software.</p><p>&#127981; <a href="https://www.press.bmwgroup.com/canada/article/detail/T0456925EN/the-new-bmw-group-plant-munich:-more-efficient-more-flexible-and-more-digital-for-production-of-the-neue-klasse">BMW Group</a> est&#225; transformando su planta de M&#250;nich para fabricar la nueva generaci&#243;n de veh&#237;culos el&#233;ctricos &#8220;Neue Klasse&#8221;. La f&#225;brica ser&#225; m&#225;s digital, flexible y <strong>automatizada</strong>, con mayor integraci&#243;n de robots y sistemas inteligentes de producci&#243;n. El objetivo es aumentar la eficiencia y adaptar r&#225;pidamente la producci&#243;n a distintos modelos.</p><p>&#128176; <a href="https://www.techinasia.com/news/chinese-robot-ai-startup-d-robotics-raises-150m-for-expansion">D-Robotics</a> ha levantado 150 millones de d&#243;lares para ampliar su negocio de <strong>chips y plataformas de IA para robots</strong> y dispositivos inteligentes. La empresa desarrolla hardware especializado para visi&#243;n artificial y rob&#243;tica aut&#243;noma. China sigue reforzando as&#237; su ecosistema de semiconductores y rob&#243;tica.</p><p>&#129504; <a href="https://blogs.nvidia.com/blog/national-robotics-week-2026/?ncid=so-twit-693888-vt48&amp;linkId=100000416855291#robolab">NVIDIA</a> celebra la <strong>National Robotics Week</strong> destacando sus avances en plataformas de desarrollo para robots basadas en IA. La compa&#241;&#237;a impulsa herramientas como Isaac Sim, Omniverse y nuevos entornos de simulaci&#243;n para entrenar robots en mundos virtuales. El objetivo es acelerar el desarrollo de robots inteligentes capaces de operar en entornos reales.</p><p>&#128085; <a href="https://internrobotics.github.io/sim1.github.io/">SIM1 Robotics</a> es un entorno de simulaci&#243;n dise&#241;ado para entrenar robots mediante aprendizaje en entornos virtuales complejos. La plataforma busca mejorar la <strong>transferencia del entrenamiento</strong> desde simulaci&#243;n al mundo real. Este tipo de herramientas es clave para reducir el coste de datos en rob&#243;tica.</p><p>&#129470; <a href="https://wendy.sh/">Wendy</a> es una proyecto experimental centrado en interfaces y herramientas para interactuar con robots y sistemas f&#237;sicos a trav&#233;s de IA. La propuesta explora nuevas formas de <strong>programar y controlar robots usando lenguaje natural</strong>. Representa la tendencia hacia interfaces m&#225;s accesibles para trabajar con sistemas rob&#243;ticos.</p>]]></content:encoded></item><item><title><![CDATA[¿Cuándo llegarán los robots? - Curso Robots Humanoides]]></title><description><![CDATA[No tarde ni temprano, es el momento de prepararse y aprovechar la oportunidad.]]></description><link>https://www.integrarobot.com/p/cuando-llegaran-los-robots-humanoides</link><guid isPermaLink="false">https://www.integrarobot.com/p/cuando-llegaran-los-robots-humanoides</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Fri, 10 Apr 2026 12:02:31 GMT</pubDate><enclosure url="https://substack-video.s3.amazonaws.com/video_upload/post/193785317/3a7a3359-fe4f-4946-ac74-df66a0fd931a/transcoded-09556.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>Cuando la gente me pregunta cu&#225;ndo llegar&#225;n los robots humanoides me gustar&#237;a darles una fecha concreta, como la presentaci&#243;n del <strong>iPhone</strong> el 9 de enero de 2007 o como el 30 de noviembre de 2022 para la presentaci&#243;n de <strong>ChatGPT</strong>. Pero en este caso no va a ser tan sencillo, porque la complejidad de la tecnolog&#237;a es mucho mayor y la incertidumbre en este mome&#8230;</p>
      <p>
          <a href="https://www.integrarobot.com/p/cuando-llegaran-los-robots-humanoides">
              Read more
          </a>
      </p>
   ]]></content:encoded></item><item><title><![CDATA[Nuevo curso de robótica e IA Física]]></title><description><![CDATA[Ser&#225; en mayo y ya te puedes apuntar]]></description><link>https://www.integrarobot.com/p/nuevo-curso-en-directo-de-robotica</link><guid isPermaLink="false">https://www.integrarobot.com/p/nuevo-curso-en-directo-de-robotica</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Wed, 08 Apr 2026 10:04:11 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!9tky!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9ddf42b7-5833-4677-a149-0a874fd22710_2486x1260.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!9tky!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9ddf42b7-5833-4677-a149-0a874fd22710_2486x1260.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!9tky!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9ddf42b7-5833-4677-a149-0a874fd22710_2486x1260.png 424w, https://substackcdn.com/image/fetch/$s_!9tky!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9ddf42b7-5833-4677-a149-0a874fd22710_2486x1260.png 848w, https://substackcdn.com/image/fetch/$s_!9tky!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9ddf42b7-5833-4677-a149-0a874fd22710_2486x1260.png 1272w, https://substackcdn.com/image/fetch/$s_!9tky!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9ddf42b7-5833-4677-a149-0a874fd22710_2486x1260.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!9tky!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9ddf42b7-5833-4677-a149-0a874fd22710_2486x1260.png" width="1456" height="738" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/9ddf42b7-5833-4677-a149-0a874fd22710_2486x1260.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:738,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:3383284,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:&quot;https://www.integrarobot.com/i/193553945?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9ddf42b7-5833-4677-a149-0a874fd22710_2486x1260.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!9tky!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9ddf42b7-5833-4677-a149-0a874fd22710_2486x1260.png 424w, https://substackcdn.com/image/fetch/$s_!9tky!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9ddf42b7-5833-4677-a149-0a874fd22710_2486x1260.png 848w, https://substackcdn.com/image/fetch/$s_!9tky!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9ddf42b7-5833-4677-a149-0a874fd22710_2486x1260.png 1272w, https://substackcdn.com/image/fetch/$s_!9tky!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9ddf42b7-5833-4677-a149-0a874fd22710_2486x1260.png 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p>En mayo vamos a realizar un nuevo <strong>curso online en directo</strong>. En esta ocasi&#243;n va a tratar sobre la <strong>evoluci&#243;n de la rob&#243;tica a la IA F&#237;sica</strong>.</p><p>Me he dado cuenta de que el <a href="https://www.integrarobot.com/p/curso">curso de robots humanoides</a><strong>,</strong> que realic&#233; en diciembre en directo (y que ahora tambi&#233;n est&#225; grabado en v&#237;deo para los miembros de la comunidad pioneros robots), estaba demasiado limitado a un tipo de tecnolog&#237;a, pero muchas veces las cosas no van tan r&#225;pido como nos gustar&#237;a, as&#237; que se hace necesario ampliar la perspectiva y tratar otros temas para poder aportar una visi&#243;n m&#225;s completa.</p><p>Por lo tanto, el <strong>curso de rob&#243;tica e IA f&#237;sica</strong> que voy a realizar los d&#237;as <strong>12, 13, y 14 de mayo de 18 a 20h</strong>, va a empezar hablando de robots camareros. S&#237;, porque son los primeros robots de nueva generaci&#243;n, los que tienen IA integrada, que la gente se est&#225; acostumbrando a ver y por lo tanto van a ser el comienzo de todo lo que est&#225; por venir en este sector.</p><p>La presentaci&#243;n de la estrategia de rob&#243;tica de <strong>NVIDIA</strong> en el GTC 2026 tambi&#233;n pone de manifiesto esta realidad. En las ediciones anteriores cuando Jensen Huang hablaba de <strong>IA F&#237;sica</strong> ten&#237;a a su lado un mont&#243;n de robots humanoides, pero en esta ocasi&#243;n la imagen ha sido mucho m&#225;s variada porque los humanoides se han mezclado con todo tipo de robots: coches aut&#243;nomos, brazos rob&#243;ticos industriales, drones, plataformas m&#243;viles, carretillas elevadoras aut&#243;nomas y hasta una excavadora&#161;!</p><p>As&#237; que en el curso de Integrarobot vamos a tener esa variedad y adem&#225;s nos vamos a centrar en tratar c&#243;mo se est&#225; produciendo esta <strong>transici&#243;n</strong>, por ejemplo, c&#243;mo las empresas tradicionales de rob&#243;tica, ABB, FANUC, KUKA, est&#225;n dando sus primeros pasos en IA F&#237;sica. Tambi&#233;n nos vamos a detener un poco en lo que est&#225; pasando con la conducci&#243;n aut&#243;noma porque seguramente nos est&#225; mostrando el camino de lo que m&#225;s adelante va a llegar con los robots.</p><p>Y qu&#233; decir de los drones, los robots de reparto, las robots m&#243;viles aut&#243;nomos y tantas otras m&#225;quinas que est&#225;n invadiendo el mundo de manera sigilosa, sin llamar tanto la atenci&#243;n como los humanoides, pero que al integrar IA est&#225;n demostrando que no estamos ante una tecnolog&#237;a que s&#243;lo hace promesas sino que realmente entrega realidades.</p><p>Bueno, te confieso que tambi&#233;n hablaremos al final del avances de los humanoides, porque la convicci&#243;n al respecto de que va a ser la tecnolog&#237;a m&#225;s transformadora del futuro la sigo teniendo, pese a los retrasos de <strong>Optimus 3</strong> y el resto de contratiempos que van a surgir por el camino, tengo claro que es cuesti&#243;n de tiempo que todos podamos tener nuestro robot mayordomo que nos quite de encima todas esas tareas tediosas que no queremos hacer.</p><p>Pero m&#225;s all&#225; de la an&#233;cdota del robot camarero, lo importante es entender qu&#233; est&#225; ocurriendo realmente:</p><blockquote><p>Por primera vez en la historia estamos empezando a ver m&#225;quinas capaces de percibir el mundo, entender lo que ocurre a su alrededor y actuar en consecuencia. Eso es lo que llamamos IA F&#237;sica: inteligencia artificial que no s&#243;lo genera texto o im&#225;genes, sino que interact&#250;a con la realidad.</p></blockquote><p>Y cuando esa capacidad se conecta con robots, veh&#237;culos, drones o maquinaria industrial, el resultado no es una simple mejora tecnol&#243;gica, sino una nueva capa de automatizaci&#243;n sobre la econom&#237;a.</p><p>Esto no va de robots futuristas.</p><p>Va de f&#225;bricas, almacenes, hospitales, restaurantes, carreteras y ciudades llen&#225;ndose poco a poco de m&#225;quinas capaces de trabajar de forma aut&#243;noma.</p><p>Por eso en este curso no vamos a hablar s&#243;lo de tecnolog&#237;a. Vamos a intentar entender qu&#233; est&#225; pasando realmente y c&#243;mo posicionarse ante uno de los cambios industriales m&#225;s importantes de las pr&#243;ximas d&#233;cadas.</p><p>Si quieres comprender hacia d&#243;nde va todo esto antes de que se haga evidente para todo el mundo, nos vemos el 12, 13 y 14 de mayo.</p><div><hr></div><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://www.integrarobot.com/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">Ya puedes apuntarte al <strong>curso de rob&#243;tica e IA F&#237;sica</strong> ampliando tu suscripci&#243;n a la newsletter. </p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div><div><hr></div><h2>Noticias sobre rob&#243;tica e IA F&#237;sica de la semana</h2><p>&#127970; <a href="https://www.humandro-id.com/post/introducing-robotsos-id1">Humandro-id</a> present&#243; Robots ID en la GTC 2026 de Nvidia, una plataforma para <strong>teleoperar</strong>, recoger datos y entrenar robots humanoides. La soluci&#243;n es independiente del hardware y permite generar datos sint&#233;ticos manteniendo la propiedad de los datos en manos de las empresas. Su objetivo es facilitar el desarrollo de modelos de IA f&#237;sica sin depender de un &#250;nico fabricante. El anuncio refleja c&#243;mo el ecosistema de herramientas para entrenar robots est&#225; creciendo r&#225;pidamente.</p><p>&#129521; <a href="https://news.crunchbase.com/robotics/physical-ai-custom-robot-builder-seed-funding-anvil/">Anvil Robotics</a> cierra una ronda semilla de unos 5,5 millones de d&#243;lares para impulsar su plataforma modular para construir robots. La empresa propone una especie de &#8220;<strong>Lego para robots</strong>&#8221;, con kits abiertos de hardware y software que permiten desarrollar aplicaciones de IA f&#237;sica de forma r&#225;pida. Sus robots pueden comprarse por entre 5.000 y 10.000 d&#243;lares y se env&#237;an en pocos d&#237;as. La compa&#241;&#237;a busca democratizar el acceso a la rob&#243;tica avanzada para startups, investigadores y equipos peque&#241;os.</p><p>&#128640; <a href="https://generalistai.com/blog/apr-02-2026-GEN-1">Generalist</a> lanza <strong>GEN-1</strong>, un nuevo modelo fundacional multimodal dise&#241;ado para controlar robots en tiempo real. En tareas sencillas alcanza tasas de &#233;xito superiores al 99 %, muy por encima de modelos anteriores, y es hasta tres veces m&#225;s r&#225;pido. El sistema aprende nuevas habilidades con apenas una hora de datos de robot. Este enfoque sugiere que en rob&#243;tica tambi&#233;n empiezan a aparecer leyes de escalado similares a las de los modelos de lenguaje.</p><p>&#9728;&#65039; <a href="https://blogs.nvidia.com/blog/national-robotics-week-2026/?ncid=so-twit-763181&amp;linkId=100000416285051#maximo">Maximo</a> muestra c&#243;mo sus robots est&#225;n automatizando la instalaci&#243;n de grandes <strong>plantas fotovoltaicas</strong>. La empresa complet&#243; una instalaci&#243;n de 100 MW utilizando robots que colocan y ensamblan paneles solares en el campo. El sistema utiliza tecnolog&#237;as de simulaci&#243;n y computaci&#243;n acelerada de NVIDIA para coordinar las operaciones. Este tipo de rob&#243;tica promete acelerar la construcci&#243;n de infraestructuras energ&#233;ticas a gran escala.</p><p>&#128249; <a href="https://www.technologyreview.com/2026/04/01/1134863/humanoid-data-training-gig-economy-2026-breakthrough-technology">Micro1</a> est&#225; creando un nuevo tipo de <strong>econom&#237;a de datos</strong> para robots humanoides. Miles de trabajadores en distintos pa&#237;ses se graban realizando tareas cotidianas para generar datos de entrenamiento que luego compran empresas de rob&#243;tica. La compa&#241;&#237;a paga alrededor de 15 d&#243;lares por hora y vende los datos a fabricantes de robots. Este modelo refleja la creciente necesidad de grandes cantidades de datos humanos para entrenar sistemas de IA f&#237;sica.</p><p>&#127981; <a href="https://interestingengineering.com/ai-robotics/china-opens-humanoid-robot-factory">Leju Robotics</a> y Dongfang Precision han puesto en marcha en China una f&#225;brica automatizada capaz de producir un robot humanoide cada 30 minutos. La planta integra decenas de etapas de ensamblaje y controles de calidad digitalizados. Seg&#250;n la empresa, la eficiencia es alrededor de un 50 % superior a los m&#233;todos tradicionales. La instalaci&#243;n podr&#237;a fabricar hasta <strong>10.000 robots al a&#241;o</strong>, se&#241;alando el paso hacia la producci&#243;n masiva de humanoides.</p><p>&#128400;&#65039; <a href="https://www.sanctuary.ai/blog/in-hand-reorientation-policy-with-letter-cube">Sanctuary</a> demostr&#243; nuevas capacidades de manipulaci&#243;n avanzada con su <strong>mano rob&#243;tica</strong> hidr&#225;ulica. En una prueba el robot reorienta un cubo con letras varias veces seguidas sin dejarlo caer. El sistema realiza la manipulaci&#243;n utilizando &#250;nicamente las yemas de los dedos, sin apoyo de la palma. Este tipo de destreza es clave para tareas industriales complejas como ensamblaje o uso de herramientas.</p><p>&#128202; <a href="https://positronic.ro/">Positronic</a> lanz&#243; el Physical AI Leaderboard (PhAIL), un nuevo <strong>benchmark</strong> para medir el rendimiento real de modelos de rob&#243;tica basados en visi&#243;n-lenguaje-acci&#243;n. Las pruebas se realizan en hardware real con tareas industriales como el picking de objetos. Los resultados muestran que los mejores modelos actuales solo alcanzan alrededor del 5 % del rendimiento humano. El benchmark pone de manifiesto la gran brecha que a&#250;n existe entre las demos de laboratorio y la rob&#243;tica productiva.</p>]]></content:encoded></item><item><title><![CDATA[Un método para integrar robots]]></title><description><![CDATA[Mi propuesta para empezar el camino de la implantaci&#243;n de robots en las empresas.]]></description><link>https://www.integrarobot.com/p/un-metodo-para-integrar-robots</link><guid isPermaLink="false">https://www.integrarobot.com/p/un-metodo-para-integrar-robots</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Wed, 01 Apr 2026 07:58:56 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!3es8!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff4651ea1-ec51-4555-bf28-de756c62e439_1792x1080.jpeg" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!3es8!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff4651ea1-ec51-4555-bf28-de756c62e439_1792x1080.jpeg" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!3es8!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff4651ea1-ec51-4555-bf28-de756c62e439_1792x1080.jpeg 424w, https://substackcdn.com/image/fetch/$s_!3es8!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff4651ea1-ec51-4555-bf28-de756c62e439_1792x1080.jpeg 848w, https://substackcdn.com/image/fetch/$s_!3es8!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff4651ea1-ec51-4555-bf28-de756c62e439_1792x1080.jpeg 1272w, https://substackcdn.com/image/fetch/$s_!3es8!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff4651ea1-ec51-4555-bf28-de756c62e439_1792x1080.jpeg 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!3es8!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff4651ea1-ec51-4555-bf28-de756c62e439_1792x1080.jpeg" width="1456" height="878" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/f4651ea1-ec51-4555-bf28-de756c62e439_1792x1080.jpeg&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:878,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:null,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:null,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:null,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!3es8!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff4651ea1-ec51-4555-bf28-de756c62e439_1792x1080.jpeg 424w, https://substackcdn.com/image/fetch/$s_!3es8!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff4651ea1-ec51-4555-bf28-de756c62e439_1792x1080.jpeg 848w, https://substackcdn.com/image/fetch/$s_!3es8!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff4651ea1-ec51-4555-bf28-de756c62e439_1792x1080.jpeg 1272w, https://substackcdn.com/image/fetch/$s_!3es8!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff4651ea1-ec51-4555-bf28-de756c62e439_1792x1080.jpeg 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p>Cuando puse en marcha el proyecto <strong>Integrarobot</strong> eleg&#237; el nombre pensando en c&#243;mo ser&#237;a el proceso de integrar robots en empresas, hogares y, en general, en la econom&#237;a real.</p><p>Pero el s&#237;mbolo que acompa&#241;a al robot del logo tiene un significado m&#225;s profundo.</p><p>Eleg&#237; el s&#237;mbolo de la <strong>integral</strong> no por una cuesti&#243;n meramente est&#233;tica, sino porque intu&#237;a que la rob&#243;tica no llegar&#237;a como una revoluci&#243;n instant&#225;nea, sino como una evoluci&#243;n progresiva.</p><p>En matem&#225;ticas, una integral representa la acumulaci&#243;n continua de peque&#241;as contribuciones a lo largo del tiempo. No mide un instante. Mide todo lo que se va sumando.</p><p>Y cuando observo c&#243;mo se est&#225; desarrollando la rob&#243;tica, es f&#225;cil ver lo que est&#225; ocurriendo. Las empresas no pasan de cero robots a una f&#225;brica totalmente automatizada.</p><ul><li><p>Primero aparece un robot que resuelve una tarea concreta.</p></li><li><p>Despu&#233;s otro que automatiza una parte del proceso.</p></li><li><p>M&#225;s adelante se reorganiza el flujo de trabajo.</p></li><li><p>Y poco a poco el impacto empieza a acumularse.</p></li></ul><p>Es por esto que la adopci&#243;n de la rob&#243;tica funciona como una integral.</p><ul><li><p>Cada peque&#241;a mejora suma.</p></li><li><p>Cada tarea automatizada a&#241;ade m&#225;s valor.</p></li><li><p>Cada aprendizaje operativo se acumula en el tiempo.</p></li></ul><p>Y con el tiempo esa suma termina transformando la empresa.</p><p>Son muchos los casos que hemos ido conociendo en los &#250;ltimos meses de la integraci&#243;n de robots humanoides en la industria, por ejemplo hemos hablado de los pilotos de trabajo de los robots de <strong>Figure</strong> en las f&#225;bricas de <strong>BMW</strong> o de <strong>Agility</strong> en las de <strong>Toyota</strong>.</p><p>Tambi&#233;n me resultan muy interesantes las iniciativas que est&#225; llevando a cabo la startup inglesa <strong>Humanoid</strong>, porque es la que m&#225;s est&#225; comunicando al respecto. As&#237; vemos que ya han realizado pilotos de trabajo de su robot humanoide en las plantas de <strong>Schaeffler</strong>, <strong>Siemens</strong>, <strong>Ford</strong> y lo m&#225;s reciente es el trabajo que ha realizado con <a href="https://thehumanoid.ai/hmnd-01-alpha-goes-to-work-humanoid-completes-automotive-manufacturing-logistics-poc-with-sap-and-martur-fompak/">SAP</a> y Martur Fompak, donde han completado una prueba de concepto en un entorno log&#237;stico de producci&#243;n real.</p><p>Si multiplicamos estas pruebas de concepto por todas las empresas que actualmente est&#225;n fabricando robots humanoides seguramente tendremos muchos cientos de casos en los que se est&#225; probando esta tecnolog&#237;a, lo cual se convierte en una base s&#243;lida de trabajo que posteriormente permita trasladarlo a todo tipo de empresas y entornos.</p><p>Siguiendo este ejemplo, cuando una pyme, o incluso una familia, se plantea comprar un robot, antes hay mucho trabajo que hacer. De hecho, existe un m&#233;todo bastante claro que aplicar para empezar.</p><p>1&#65039;&#8419; Primero hay que generar <strong>contexto</strong>. Porque igual que ocurre con la IA, la calidad del trabajo del robot depender&#225; de lo claro que tenga la tarea a realizar y lo concretos que sean los l&#237;mites de lo que tiene que hacer. Si el robot no tiene los detalles de c&#243;mo se hace una operaci&#243;n, tendr&#225; que improvisar y creo que las alucinaciones de los robots pueden tener consecuencias mucho peores que las de la IA. En este punto recomiendo usar la IA para documentar todo el proceso operativo de la empresa, lo cual podr&#225; ayudar adem&#225;s a detectar los cuellos de botella donde los robots puedan aportar m&#225;s valor al inicio.</p><p>2&#65039;&#8419; Despu&#233;s es necesario <strong>documentar</strong> en v&#237;deo el trabajo real. Una vez que tenemos claros todos los procesos que se producen en la empresa y hayamos detectado d&#243;nde podr&#237;an participar los robots para hacerlo de manera m&#225;s eficiente, llega el momento de <strong>grabar en v&#237;deo la operaci&#243;n</strong> porque ese ser&#225; el conocimiento que habr&#225; que transmitir al robot en primera persona para su entrenamiento. En este punto surge una situaci&#243;n de conflicto sobre c&#243;mo los trabajadores pueden percibir la llegada de los robots. Como aqu&#237; a&#250;n tenemos poca experiencia me temo que tendremos que ir aprendiendo de ello sobre la marcha.</p><p>3&#65039;&#8419; Y por &#250;ltimo es fundamental <strong>simular</strong>. Antes de comprar un robot tiene sentido modelar c&#243;mo puede encajar dentro del sistema de trabajo actual de la empresa. Y en este punto otra de las utilidades que puede ofrecerte la IA es crear simuladores del funcionamiento de los robots. Aunque puedas recurrir a uno de los simuladores que han creado las empresas de rob&#243;tica, lo que yo te recomiendo es que lo construyas t&#250; mismo, por ejemplo como un artefacto de Claude. Para ello tendr&#225;s que proporcionarle el contexto del punto 1 y pedirle, que lo programe como si fuera a realizarse el trabajo con un brazo rob&#243;tico. De esta forma podr&#225;s entender mejor c&#243;mo ser&#225; el funcionamiento del robot antes de que te lances a comprarlo y esto te ahorrar&#225; problemas futuros que no hayas tenido en cuenta.</p><p>Por lo tanto, <strong>integrar robots</strong> no empieza cuando llega el robot, sino mucho antes, cuando la empresa comienza a entender sus procesos y a mejorar peque&#241;as partes del sistema.</p><p>Porque, como en una integral, el verdadero impacto no aparece en un solo punto, sino cuando todas las mejoras se van acumulando.</p><div><hr></div><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://www.integrarobot.com/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">Si te planteas integrar robots en tu empresa pero no sabes por d&#243;nde empezar, te propongo unirte a la <strong>comunidad pioneros robots</strong>, donde podr&#225;s aprender m&#225;s sobre robots humanoides y compartir experiencias con otros apasionados de la rob&#243;tica.</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div><div><hr></div><h3>Noticias sobre rob&#243;tica e IA F&#237;sica de la semana</h3><p>&#127981;&#8239;<a href="https://www.fagor.eus/es/fagor-arrasate-y-funditec-crean-primus-robotics-para-fabricar-robots-humanoides-en-europa/">Fagor</a> y Funditec han puesto en marcha una joint venture para fabricar robots humanoides industriales en Europa. Su primer producto, <strong>Primus P1</strong>, se orientar&#225; a tareas de manipulaci&#243;n y mantenimiento. La empresa planea producir 200 unidades al a&#241;o y escalar a m&#225;s de 3.000, combinando inteligencia artificial con la experiencia en ingenier&#237;a de Fagor para facilitar la colaboraci&#243;n entre robots, operarios y maquinaria industrial.</p><p>&#9881;&#65039;&#8239;<a href="https://techfundingnews.com/as-industrial-labour-shortages-grow-roboforce-grabs-52m-for-ai-robots/">RoboForce</a> la start&#8209;up californiana obtuvo 52 M$ (67 M$ acumulados) para acelerar su modelo fundacional de rob&#243;tica y pasar de prototipos a despliegues comerciales. Su plataforma de &#8220;Robo&#8209;Labor&#8221; combina hardware y agentes de IA f&#237;sica para realizar <strong>trabajos duros y peligrosos</strong> en sectores como miner&#237;a, data centers o energ&#237;a solar, aprovechando un modelo RaaS que reduce costes y ataja la escasez de mano de obra.</p><p>&#128287;&#8239;<a href="https://www.prnewswire.com/news-releases/agibot-reaches-10-000-units-as-real-world-demand-for-robots-accelerates-302728295.html">Agibot</a> anunci&#243; haber fabricado su robot humanoide n&#250;mero <strong>10.000</strong>, un hito logrado en solo tres meses al pasar de 5 000 a 10.000 unidades gracias a una cadena de suministro madura. La producci&#243;n masiva refleja un salto hacia la demanda comercial: sus robots se usan ya en log&#237;stica, retail, hosteler&#237;a, educaci&#243;n e incluso l&#237;neas de producci&#243;n, con despliegues no solo en China sino tambi&#233;n en Europa, Norteam&#233;rica y Asia.</p><p>&#128400;&#65039;&#8239;<a href="https://www.humanoidsdaily.com/news/sweating-the-details-xiaomi-unveils-upgraded-cyberone-hand-with-bionic-glands-and-full-palm-touch">Xiaomi</a> present&#243; una <strong>mano bi&#243;nica</strong> para su humanoide CyberOne un 60% m&#225;s compacta y con 22&#8209;27 grados de libertad, igualando el tama&#241;o y movilidad de una mano humana. La nueva versi&#243;n incorpora sensores t&#225;ctiles en toda la palma y usa guantes sensorizados para entrenarse; adem&#225;s, alcanza 150 000 ciclos de agarre sin fallos e incluye un sistema de &#8220;gl&#225;ndulas de sudor&#8221; mediante refrigeraci&#243;n l&#237;quida que disipa el calor y permite operar durante m&#225;s tiempo.</p><p>&#127793;&#8239;<a href="https://naturerobots.com/en/news/seed-invest/">Nature Robots</a> spin&#8209;off del DFKI, cerr&#243; una ronda seed de 4 M&#8364; liderada por Climentum Capital, Bayern Kapital y Planetary Impact Ventures para escalar su software de autonom&#237;a modular para maquinaria agr&#237;cola. La financiaci&#243;n permitir&#225; ampliar su equipo mientras su plataforma de navegaci&#243;n y monitorizaci&#243;n aut&#243;noma busca reducir el uso de pesticidas y las emisiones de CO&#8322; en la agricultura.</p><p>&#127828;&#8239;<a href="https://interestingengineering.com/ai-robotics/mcdonalds-humanoid-robots-deliver-food">McDonald&#8217;s</a> est&#225; probando en Shangh&#225;i robots humanoides de <strong>Keenon Robotics</strong> que reciben y sirven a los clientes vistiendo el uniforme de la cadena. El experimento busca evaluar c&#243;mo la automatizaci&#243;n puede mejorar el servicio y la experiencia en restaurantes, aunque de momento no se ha confirmado un despliegue masivo.</p><p>Otras lecturas para seguir aprendiendo sobre modelos del mundo:</p><p><a href="https://x.com/chris_j_paxton/status/2037037923523023250">Will World Models Allow Robots to Think?</a> los modelos del mundo podr&#237;an ser el avance clave que permita a los robots pasar de ejecutar tareas programadas a razonar sobre el mundo f&#237;sico y generalizar habilidades.</p><p><a href="https://www.notboring.co/p/world-models">World Models: Computing the Uncomputable</a> los world models son modelos de IA capaces de aprender representaciones internas del funcionamiento del mundo y utilizarlas para imaginar futuros posibles antes de actuar.</p>]]></content:encoded></item><item><title><![CDATA[La industria del automóvil se sube a la ola de la IA Física]]></title><description><![CDATA[Esta tarde a las 19h voy a realizar un webinar en Youtube donde explicar&#233; c&#243;mo puedes subirte a la ola de la IA F&#237;sica.]]></description><link>https://www.integrarobot.com/p/la-industria-del-automovil-se-sube</link><guid isPermaLink="false">https://www.integrarobot.com/p/la-industria-del-automovil-se-sube</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Wed, 25 Mar 2026 11:18:39 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!d0NF!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2a01e3df-9852-421e-a5ec-468546a14790_1536x1024.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!d0NF!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2a01e3df-9852-421e-a5ec-468546a14790_1536x1024.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!d0NF!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2a01e3df-9852-421e-a5ec-468546a14790_1536x1024.png 424w, https://substackcdn.com/image/fetch/$s_!d0NF!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2a01e3df-9852-421e-a5ec-468546a14790_1536x1024.png 848w, https://substackcdn.com/image/fetch/$s_!d0NF!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2a01e3df-9852-421e-a5ec-468546a14790_1536x1024.png 1272w, https://substackcdn.com/image/fetch/$s_!d0NF!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2a01e3df-9852-421e-a5ec-468546a14790_1536x1024.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!d0NF!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2a01e3df-9852-421e-a5ec-468546a14790_1536x1024.png" width="1456" height="971" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/2a01e3df-9852-421e-a5ec-468546a14790_1536x1024.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:971,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:null,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:null,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:null,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!d0NF!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2a01e3df-9852-421e-a5ec-468546a14790_1536x1024.png 424w, https://substackcdn.com/image/fetch/$s_!d0NF!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2a01e3df-9852-421e-a5ec-468546a14790_1536x1024.png 848w, https://substackcdn.com/image/fetch/$s_!d0NF!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2a01e3df-9852-421e-a5ec-468546a14790_1536x1024.png 1272w, https://substackcdn.com/image/fetch/$s_!d0NF!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2a01e3df-9852-421e-a5ec-468546a14790_1536x1024.png 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p>Esta tarde a las 19h voy a realizar un <a href="https://www.youtube.com/live/XKPkbLEutJ8">webinar en Youtube</a> donde explicar&#233; c&#243;mo puedes subirte a la ola de la IA F&#237;sica. &#161;No te lo pierdas!</p><div><hr></div><h2>&#191;Por qu&#233; la IA F&#237;sica?</h2><p>A <strong>NVIDIA</strong> le interesa especialmente que se promueva este t&#233;rmino frente al de la rob&#243;tica. Qu&#233; duda cabe que lo que est&#225; de moda ahora es la IA, adem&#225;s de que es lo que ha llevado a la empresa a convertirse en la m&#225;s valiosa del mundo, por lo tanto la IA F&#237;sica se presenta como una continuidad. Ya no hablamos de robots programables, sino de robots inteligentes, as&#237; que la cosa cambia radicalmente, porque pasamos de m&#225;quinas limitadas a robots de prop&#243;sito general, lo cual escala mucho mejor.</p><h2>La industria del autom&#243;vil se sube a la ola</h2><p>El sector del autom&#243;vil afronta su en&#233;sima transformaci&#243;n, pero al contrario de lo ocurrido con los sistemas de combusti&#243;n, en este caso parecen haber aprendido la lecci&#243;n y no est&#225;n tardando tanto en empezar a competir con <strong>Tesla</strong>.</p><p>Es cierto que en cuanto a los fabricantes occidentales ninguno ha tomado a&#250;n una decisi&#243;n tan radical como la de Tesla en cuanto a priorizar robots frente a autom&#243;viles, pero no son pocas las empresas que ya est&#225;n dando pasos en este &#225;mbito de la rob&#243;tica, aunque a&#250;n pueda parecer que es pronto para empezar a invertir en ello.</p><p>Ahora bien, qu&#233; indicios tenemos para decir que la industria del autom&#243;vil est&#225; tan interesada por los robots humanoides. Ve&#225;moslo:</p><ol><li><p><strong>BMW</strong> lleva varios a&#241;os dando pasos en materia de rob&#243;tica, por ejemplo con la participaci&#243;n en la empresa de robots m&#243;viles <a href="https://www.idealworks.com/">Idealworks</a>, que luego pas&#243; a ser propiedad de <strong>Agile Robots</strong> y la colaboraci&#243;n entre estas empresas. Adem&#225;s el fabricante de coches tambi&#233;n trabaja en pilotos de implantaci&#243;n de robots humanoides de <strong>Figue</strong> y Hexagon, por lo que se muestra un claro inter&#233;s por formar parte de manera activa de este sector de la rob&#243;tica.</p></li><li><p><strong>Mercedes</strong> lleva tiempo trabajando con <strong>Apptronik</strong> para integrar robots humanoides Apollo, en sus plantas de producci&#243;n para realizar tareas repetitivas y log&#237;sticas, como el transporte de componentes y el uso de herramientas. Adem&#225;s es uno de los principales socios de la empresa ya que ha participado en las rondas de inversi&#243;n que la valoraci&#243;n en 5.500 millones y en la que tambi&#233;n particip&#243; John Deere.</p></li><li><p><strong>Renault</strong> ha invertido en la startup francesa <strong>Wandercraft</strong> y adem&#225;s ha trabajado conjuntamente con ella para el desarrollo del robot Calvin-40 que puede ser entrenado para seleccionar piezas mezcladas de contenedores, pero por ahora, se limita a levantar neum&#225;ticos y transportar paneles en el taller de carrocer&#237;a, ya que tiene factores limitantes son la velocidad y la destreza.</p></li><li><p><strong>Rivian</strong> en esto de los robots no se ha conformado con hacer como el resto de empresas invirtiendo en startups o colaborando con ellas, sino que ha creado una spin-off llamada <strong>Mind Robotics</strong>, que en pocos meses ha <a href="https://techcrunch.com/2026/03/11/rivian-mind-robotics-series-a-500m-fund-raise-industrial-ai-powered-robots">recaudado</a> m&#225;s de 600 millones de d&#243;lares, con el objetivo de abordar una deficiencia estructural de las soluciones de automatizaci&#243;n industrial actuales, es decir, aportar lo que la rob&#243;tica cl&#225;sica no puede hacer: destreza, adaptaci&#243;n y razonamiento f&#237;sico similares a los humanos.</p></li><li><p><strong>Volkswagen</strong> trabaja con robots humanoides a trav&#233;s de una Joint Venture que tiene con el fabricante chino FAW y a trav&#233;s de esta colaboraci&#243;n es donde trabajan con el desarrollo de humanoides <strong>UBTECH</strong> para usar el robot Walker S realizando tareas tareas como el montaje de componentes y el manejo de las partes automotrices.</p></li><li><p><strong>Hyundai</strong> fue uno de los fabricantes de coches que primero apost&#243; por esto de los robots humanoides cuando en 2021 compr&#243; a Softbank el pionero de los humanoides <strong>Boston Dynamics</strong>. Desde entonces no ha parado de avanzar en temas de rob&#243;tica, porque tambi&#233;n colabora con otras empresas como Persona AI, para el desarrollos de robots de soldadura.</p></li><li><p><strong>Toyota</strong> trabaja activamente en rob&#243;tica humanoide a trav&#233;s de su centro de I+D Toyota Research Institute donde tiene una alianza con <strong>Boston Dynamics</strong> para acelerar el desarrollo de humanoides de prop&#243;sito general, combinando Large Behavior Models de TRI con el robot Atlas. Tambi&#233;n la empresa colabora con <strong>Agility</strong> para usar sus robots en sus f&#225;bricas de coches de Canad&#225;.</p></li><li><p><strong>Xpeng</strong> tambi&#233;n est&#225; muy interesado en el desarrollo de la IA f&#237;sica lo cual queda patente por el desarrollo de su propio robot humanoide <strong>Iron</strong>, dise&#241;ado para tareas industriales y de servicio, que destaca por su piel flexible, 82 grados de libertad, manos bi&#243;nicas y bater&#237;a de estado s&#243;lido. Su producci&#243;n masiva est&#225; prevista para iniciar a lo largo de este a&#241;o.</p></li><li><p><strong>Ford</strong> ha colaborado desde hace a&#241;os con <strong>Agility</strong> para el desarrollo del robot Digit, en soluciones de log&#237;stica de &#250;ltima milla combinado con la tecnolog&#237;a de veh&#237;culos aut&#243;nomos.</p></li></ol><p>Como ves, una parte importante de la industria del autom&#243;vil est&#225; volcada en esta nueva tecnolog&#237;a de la IA f&#237;sica y el objetivo es claro, implementar robots humanoides en las f&#225;bricas para que se encarguen de las tareas rutinarias y que resulten peligrosas para las personas, pero que los grandes brazos rob&#243;ticos no pueden afrontar por su falta de versatilidad.</p><p>Pero lo m&#225;s interesante de esto es que la industria de la automoci&#243;n es s&#243;lo la punta de lanza para que poco a poco otros sectores se vayan subiendo a esta ola, por ejemplo la de la log&#237;stica, como vamos a ver luego con Amazon y Zalando.</p><div><hr></div><p>Y hablando de autom&#243;viles, os comparto la <strong>entrevista</strong> que me han hecho hace poco en el canal de <a href="https://www.youtube.com/watch?v=54ThFvWE9jo">Todos El&#233;ctricos</a> donde hablamos largo y tendido sobre esta oportunidad de los robots humanoides y la relaci&#243;n que existe con el mundo de los coches.</p><div><hr></div><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://www.integrarobot.com/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">Si quieres aprender m&#225;s sobre rob&#243;tica la mejor opci&#243;n es unirte a la <strong>comunidad pioneros robots</strong> donde podr&#225;s acceder a mucho m&#225;s contenidos, eventos, &#8230;</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div><div><hr></div><p></p><h2>M&#225;s noticias sobre IA F&#237;sica y rob&#243;tica</h2><p>Empecemos esta recopilaci&#243;n de noticias hablando de <strong>Amazon</strong>, porque si la semana pasada dijimos que ten&#237;a previsto invertir 200.000 millones de d&#243;lares, empezamos a ver que todo ese capex no s&#243;lo va a ir a parar a ampliar los centros de datos de AWS sino que una parte se la va a dedicar a <strong>adquirir startups de rob&#243;tica</strong>. As&#237; hace pocos d&#237;as conocimos la compra de <a href="https://www.rivr.ai/">Rivr</a>, fabricante de robots de reparto que son capaces de subir escaleras y justo ayer el notici&#243;n de la compra de <a href="https://techcrunch.com/2026/03/24/amazon-just-bought-a-startup-making-kid-size-humanoid-robots/">Fauna</a>, el fabricante del robot humanoide Sprout, que se ha hecho muy popular desde principios de a&#241;o.</p><blockquote><p>&#8220;<em>Nos entusiasma la visi&#243;n de Fauna de crear robots capaces, seguros y divertidos para todos. Junto con la experiencia de Amazon en rob&#243;tica y d&#233;cadas de trayectoria gan&#225;ndonos la confianza de los clientes en el hogar a trav&#233;s de nuestros negocios de venta minorista y dispositivos, esperamos inventar nuevas formas de mejorar y facilitar la vida de nuestros clientes</em>&#8221;.</p></blockquote><p>Y ahora s&#237;, vamos con las noticias breves de la semana</p><p>&#128377;&#65039; &#8239;<a href="https://www.ludorobotics.ai/">Ludo</a> se presenta como &#8220;la compa&#241;&#237;a del cerebro humanoide social&#8221; y busca avanzar la Inteligencia F&#237;sica combinando percepci&#243;n, aprendizaje y manipulaci&#243;n. Su objetivo es crear sistemas de inteligencia rob&#243;tica generalistas mediante aprendizaje autom&#225;tico a gran escala, apoyados por el desarrollador de <strong>videojuegos</strong> Krafton y con sedes en San Francisco y Se&#250;l.</p><p>&#129470;&#8239;<a href="https://biz.chosun.com/en/en-it/2026/03/10/7VZNE27G6BGDHKPQXLJO6CG6EI/">LG</a> realiza una inversi&#243;n estrat&#233;gica en <strong>Dexmate</strong> para incorporar robots humanoides con base de ruedas capaces de cargar 15 kg y trabajar m&#225;s de 20 horas. La empresa coreana aspira a ofrecer un servicio &#8220;full&#8209;stack RX&#8221; que combine hardware, modelos fundacionales y plataformas de entrenamiento para acelerar la adopci&#243;n de robots en centros log&#237;sticos y plantas industriales.</p><p>&#128666;&#8239;<a href="https://www.automatedwarehouseonline.com/oxa-raises-103m-to-automate-industrial-driving-tasks/">Oxa</a> cerr&#243; una ronda Serie D de 103 M$ destinada a impulsar la <strong>automatizaci&#243;n del transporte industrial</strong>. Su software configurable Oxa Driver permite que veh&#237;culos existentes puedan transportar y vigilar mercanc&#237;as en puertos, aeropuertos y f&#225;bricas, y la financiaci&#243;n se usar&#225; para reforzar este sistema y expandirse globalmente.</p><p>&#9995;&#8239;<a href="https://www.digitimes.com/news/a20260312PD214/samsung-robot-robotics-manufacturing-hardware.html">Samsung</a> crea una unidad dedicada a desarrollar <strong>manos rob&#243;ticas de alta destreza</strong>, uno de los desaf&#237;os m&#225;s complejos de la rob&#243;tica humanoide. El laboratorio pretende construir manos con numerosos grados de libertad para mejorar la capacidad manipuladora de sus robots, aunque el resto de detalles es de acceso restringido.</p><p>&#129504;&#8239;<a href="https://techcrunch.com/2026/03/16/memories-ai-is-building-the-visual-memory-layer-for-wearables-and-robotics/">Memories.ai</a> colabora con Nvidia para crear una &#8220;capa de memoria visual&#8221; que permita a wearables y robots recordar lo que ven. La empresa, fundada por ex&#8209;ingenieros de Meta, lanz&#243; en 2025 su modelo LVMM y ha recaudado 16 M$; desarrolla dispositivos para recopilar v&#237;deo y planea usar procesadores Qualcomm, convencida de que la <strong>memoria visual</strong> ser&#225; crucial para la rob&#243;tica y los wearables.</p><p>&#128230;&#8239;<a href="https://corporate.zalando.com/en/technology/zalando-install-50-ai-powered-nomagic-robots-its-european-fulfilment-centres">Zalando</a> desplegar&#225;n hasta 50 robots Richard de <strong>Nomagic</strong> en centros de distribuci&#243;n europeos tras un piloto con 100 000 recogidas diarias. Estos robots utilizan visi&#243;n artificial y pinzas de precisi&#243;n para manipular cajas de zapatos y otros productos, lo que permite procesar pedidos con rapidez y apoyar a los empleados; el despliegue abarcar&#225; instalaciones en Alemania, Italia, Pa&#237;ses Bajos, Suecia y Francia.</p><p>&#129438; &#8239;<a href="https://arxiv.org/abs/2603.11558v2">RoboClaw</a> presenta un marco rob&#243;tico que unifica recolecci&#243;n de datos, aprendizaje y ejecuci&#243;n mediante un controlador de <strong>visi&#243;n&#8209;lenguaje&#8209;acci&#243;n</strong>. Introduce &#8220;pares de acciones entrelazadas&#8221; que crean ciclos de auto&#8209;reseteo, reduciendo la intervenci&#243;n humana y mejorando en un 25 % la tasa de &#233;xito en tareas de larga duraci&#243;n mientras disminuye un 53,7 % el tiempo humano requerido.</p><p>&#129517;&#8239;<a href="https://www.advancednavigation.com/news/advanced-navigation-secures-us110m-series-c-to-catalyze-the-next-era-of-autonomous-systems/">Advanced Navigation</a> obtuvo 110 M$ en una Serie C liderada por Airtree Ventures y el fondo NRFC para desarrollar <strong>sistemas de navegaci&#243;n</strong> resilientes que no dependan del GPS. Su enfoque combina software de aprendizaje profundo y hardware de alta precisi&#243;n para que veh&#237;culos aut&#243;nomos operen en mar, tierra y aire; la inversi&#243;n financiar&#225; la creaci&#243;n de centros de excelencia de posicionamiento, navegaci&#243;n y tiempo en EE. UU. y Europa.</p><p>&#128200;&#8239;<a href="https://www.reuters.com/world/asia-pacific/unitree-plans-shanghai-ipo-testing-interest-humanoid-robots-2026-03-20/">Unitree</a> present&#243; una solicitud de <strong>salida a bolsa</strong> en Shangh&#225;i para recaudar 4 200 M&#165; (610 M USD). Sus robots humanoides acapararon la atenci&#243;n en la gala del Festival de Primavera, y la empresa registr&#243; un crecimiento del 335 % en ingresos y del 674 % en beneficios en 2025; los humanoides aportan ya m&#225;s de la mitad de sus ingresos y Unitree ostenta el 32 % del mercado global.</p><p>&#129463;&#8239;<a href="https://en.wowtale.net/2026/03/19/233707/">Dentronic</a> consigui&#243; 1 M$ de financiaci&#243;n pre&#8209;semilla a trav&#233;s de South Park Commons. Est&#225; desarrollando sistemas para automatizar tareas repetitivas en <strong>odontolog&#237;a</strong>, como su brazo Dexor de seis grados de libertad que ya agot&#243; su primera tirada; planea asociarse con grandes cl&#237;nicas estadounidenses y, a largo plazo, extender la tecnolog&#237;a a otras &#225;reas m&#233;dicas incorporando inteligencia f&#237;sica.</p><p>&#129309;&#8239;<a href="https://www.agile-robots.com/en/news/detail/agile-robots-and-google-deepmind-partner-to-bring-intelligence-to-robotics/">Google DeepMind</a> firma una alianza estrat&#233;gica para integrar los modelos Gemini Robotics en la plataforma rob&#243;tica industrial de <strong>Agile</strong>. La colaboraci&#243;n pretende desarrollar robots capaces de razonar y adaptarse en entornos industriales, con m&#225;s de 20 000 soluciones ya desplegadas y el objetivo de crear un &#8220;flywheel&#8221; de IA en el que los datos de operaci&#243;n mejoren continuamente los modelos y ampl&#237;en sus capacidades.</p>]]></content:encoded></item><item><title><![CDATA[🌍 La carrera global por los robots humanoides]]></title><description><![CDATA[Analizamos el estado de la competencia entre pa&#237;ses a nivel mundial por lograr el liderazgo en el negocio de la rob&#243;tica]]></description><link>https://www.integrarobot.com/p/la-carrera-global-por-los-robots</link><guid isPermaLink="false">https://www.integrarobot.com/p/la-carrera-global-por-los-robots</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Fri, 20 Mar 2026 17:15:45 GMT</pubDate><enclosure url="https://substack-video.s3.amazonaws.com/video_upload/post/191602424/e70e9366-997a-4067-b4cb-c3e6d0e35fa7/transcoded-02432.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>La competencia en el &#225;mbito de la rob&#243;tica no es &#250;nicamente tecnol&#243;gica. Es una disputa industrial y geopol&#237;tica por controlar la siguiente capa de automatizaci&#243;n del trabajo f&#237;sico. No se trata de saber qui&#233;n es capaz de construir el mejor robot hoy, sino de qui&#233;n dominar&#225; el sistema completo que permitir&#225; desplegarlos a gran escala.</p><p>Actualmente se obse&#8230;</p>
      <p>
          <a href="https://www.integrarobot.com/p/la-carrera-global-por-los-robots">
              Read more
          </a>
      </p>
   ]]></content:encoded></item><item><title><![CDATA[ABB y el dilema del innovador]]></title><description><![CDATA[Bienvenidos a la era de la IA f&#237;sica, el nuevo slogan de NVIDIA, que poco a poco deben ir asumiendo tambi&#233;n las empresas tradicionales de rob&#243;tica.]]></description><link>https://www.integrarobot.com/p/abb-y-el-dilema-del-innovador</link><guid isPermaLink="false">https://www.integrarobot.com/p/abb-y-el-dilema-del-innovador</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Wed, 18 Mar 2026 11:01:51 GMT</pubDate><enclosure url="https://api.substack.com/feed/podcast/191344301/37b5b7762de980176136570a4cc0fbf1.mp3" length="0" type="audio/mpeg"/><content:encoded><![CDATA[<p>Cuando una empresa como <strong>Amazon</strong> decide gastarse todo su dinero (200.000 millones de d&#243;lares en 2026) para crear el <strong>AWS</strong> versi&#243;n 2.0, nos est&#225; dejando claro que no est&#225; siendo v&#237;ctima del dilema del innovador. La empresa que pr&#225;cticamente ha inventado el <strong>Cloud Computing</strong> est&#225; poniendo toda la carne en el asador porque est&#225; convencida de que con la IA es necesario reinventar esa infraestructura, cueste lo que cueste.</p><p>Sin embargo no estamos viendo algo similar en la industria de la <strong>rob&#243;tica</strong>, aunque comienzan a aparecer indicios de cierto inter&#233;s por la evoluci&#243;n hacia la <strong>IA F&#237;sica</strong>, a&#250;n son pocas las noticias de empresas del sector que apuestan decididamente por esta tecnolog&#237;a.</p><p>Con la noticia de la <a href="https://www.abb.com/global/en/news/134030">colaboraci&#243;n</a> entre <strong>ABB Robotics</strong> y <strong>NVIDIA</strong> empezamos a ver ciento cambio, pero a&#250;n me parece insuficiente y no podr&#237;amos decir a&#250;n que esta empresa no est&#233; siendo presa del dilema del innovador.</p><p>Su negocio de venta de robots industriales programables funciona, &#191;Qu&#233; raz&#243;n tendr&#237;a para arriesgarse invirtiendo en un nuevo tipo de robots de prop&#243;sito general impulsados por IA?</p><p>Durante d&#233;cadas, ABB ha sido sin&#243;nimo de rob&#243;tica industrial: brazo de precisi&#243;n, celda de soldadura, l&#237;nea de montaje. Han sido cincuenta a&#241;os fabricando las m&#225;quinas que mueven las f&#225;bricas del mundo, pero ese tipo de rob&#243;tica, no es capaz de aprender y por lo tanto de mejorar por s&#237; misma.</p><p>La colaboraci&#243;n entre ABB y NVIDIA, donde se acaban de anunciar la integraci&#243;n de las bibliotecas <strong>NVIDIA Omniverse</strong> en la plataforma <strong>ABB RobotStudio</strong>, deber&#237;a ser un primer paso para esa evoluci&#243;n de la rob&#243;tica programable a la IA F&#237;sica.</p><p>Con esta colaboraci&#243;n se busca resolver el problema <strong>sim-to-real</strong>: la brecha entre lo que un robot aprende en simulaci&#243;n y lo que es capaz de ejecutar en el mundo f&#237;sico. Una brecha que, durante a&#241;os, ha sido el principal cuello de botella para desplegar rob&#243;tica basada en IA a escala industrial.</p><p>Lo que ABB est&#225; haciendo no es solo una actualizaci&#243;n de software. Es la b&#250;squeda de un nuevo posicionamiento, porque los fabricantes de robots tradicionales saben que el juego ha cambiado, y que se la est&#225;n jugando con la IA F&#237;sica, es decir, modelos de inteligencia artificial que no solo procesan datos, sino que act&#250;an sobre el mundo con precisi&#243;n y generalizaci&#243;n.</p><p>Esta transici&#243;n tiene implicaciones directas para el futuro de los robots humanoides. Porque los problemas que ABB est&#225; resolviendo hoy en brazos industriales, como la generaci&#243;n de datos sint&#233;ticos, el entrenamiento en gemelos digitales y la transferencia fiable al hardware real, son exactamente los mismos problemas que necesitan resolver los humanoides para salir del laboratorio y entrar en las f&#225;bricas realizando tareas con precisi&#243;n y versatilidad.</p><div><hr></div><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://www.integrarobot.com/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">Para no ser presa del dilema del innovador una buena opci&#243;n es apuntarte a la <strong>comunidad pioneros robots</strong> donde podr&#225;s aprender de otras personas que tambi&#233;n quieren aprovechar la oportunidad de la IA F&#237;sica.</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div><div><hr></div><h3>NVIDIA no sufre el dilema del innovador</h3><div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!cM2q!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F28d7bb98-689a-4cab-941f-2a04025cf6d4_2048x1027.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!cM2q!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F28d7bb98-689a-4cab-941f-2a04025cf6d4_2048x1027.png 424w, https://substackcdn.com/image/fetch/$s_!cM2q!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F28d7bb98-689a-4cab-941f-2a04025cf6d4_2048x1027.png 848w, https://substackcdn.com/image/fetch/$s_!cM2q!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F28d7bb98-689a-4cab-941f-2a04025cf6d4_2048x1027.png 1272w, https://substackcdn.com/image/fetch/$s_!cM2q!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F28d7bb98-689a-4cab-941f-2a04025cf6d4_2048x1027.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!cM2q!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F28d7bb98-689a-4cab-941f-2a04025cf6d4_2048x1027.png" width="1456" height="730" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/28d7bb98-689a-4cab-941f-2a04025cf6d4_2048x1027.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:730,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:null,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:null,&quot;href&quot;:null,&quot;belowTheFold&quot;:true,&quot;topImage&quot;:false,&quot;internalRedirect&quot;:null,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!cM2q!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F28d7bb98-689a-4cab-941f-2a04025cf6d4_2048x1027.png 424w, https://substackcdn.com/image/fetch/$s_!cM2q!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F28d7bb98-689a-4cab-941f-2a04025cf6d4_2048x1027.png 848w, https://substackcdn.com/image/fetch/$s_!cM2q!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F28d7bb98-689a-4cab-941f-2a04025cf6d4_2048x1027.png 1272w, https://substackcdn.com/image/fetch/$s_!cM2q!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F28d7bb98-689a-4cab-941f-2a04025cf6d4_2048x1027.png 1456w" sizes="100vw" loading="lazy"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p>Por mucho que <strong>NVIDIA</strong> lleve ya varios a&#241;os terminando sus <a href="https://www.youtube.com/live/jw_o0xr8MWU?si=O-56j1vC707E3H6e&amp;t=7578">eventos</a> hablando de rob&#243;tica no deja de ser emocionante ver todo lo que la empresa m&#225;s valiosa del mundo est&#225; aportando a este sector. Y como se puede apreciar en la imagen, los robots humanoides ocupan el espacio central porque son la prioridad de futuro por el volumen de negocio que pueden llegar a suponer para la empresa.</p><p>Aqu&#237; vale la pena mencionar que en la presentaci&#243;n del GTC 2026, adem&#225;s de ABB tambi&#233;n aparec&#237;an los brazos rob&#243;ticos de <strong>FANUC</strong> y <strong>KUKA</strong>, por lo que queda claro que el grueso de la industria tradicional de la rob&#243;tica industrial est&#225; trabajando tambi&#233;n en IA F&#237;sica aprovechando las capacidades de NVIDIA.</p><p>Y todo lo que est&#225; haciendo NVIDIA a nivel de rob&#243;tica se puede resumir en las tres capas que explic&#243; Jensen Huang:</p><ol><li><p>Software de entrenamiento</p></li><li><p>Generaci&#243;n de datos sint&#233;ticos y simulaci&#243;n</p></li><li><p>Ordenador rob&#243;tico que va dentro del propio robot: Jetson Thor</p></li></ol><p>Para cada uno de estos niveles la empresa ha desarrollado tecnolog&#237;a propia, software en los dos primeros y hardware en el tercero.</p><p>En cuanto a software la novedad m&#225;s importante ha sido la presentaci&#243;n de <a href="https://developer.nvidia.com/blog/newton-adds-contact-rich-manipulation-and-locomotion-capabilities-for-industrial-robotics">NVIDIA Newton</a>, el <strong>simulador</strong> que a&#241;ade capacidades de manipulaci&#243;n y locomoci&#243;n con gran interacci&#243;n para la rob&#243;tica industrial y que se enmarca dentro del completo stack que ofrece la empresa de la siguiente forma:</p><ul><li><p><strong>Isaac Lab</strong> para entrenamiento y evaluaci&#243;n de robots.</p></li><li><p><strong>Newton</strong> para simulaci&#243;n f&#237;sica diferenciable acelerada por GPU.</p></li><li><p><strong>Cosmos</strong> modelo del mundo para simulaci&#243;n neuronal.</p></li><li><p><strong>Groot</strong>, modelos fundacionales de rob&#243;tica para razonamiento y acci&#243;n.</p></li></ul><p>El v&#237;deo final mostrado en el evento es toda una declaraci&#243;n de intenciones sobre lo claro que tiene la empresa que su futuro pasa por la IA F&#237;sica. No creo que sea simplemente porque los robots queden graciosos cantando y tocando instrumentos como si fueran dibujos animados.</p><p><strong>Bienvenidos a la era de la IA f&#237;sica</strong> es la representaci&#243;n de c&#243;mo percibe el futuro NVIDIA, es cierto que a&#250;n no lo vemos en el d&#237;a a d&#237;a por nuestras calles, pero si ellos no lo hacen posible, &#191;Qui&#233;n lo va a hacer?</p><div><hr></div><p>&#191;Has pensado ya c&#243;mo vas a subirte a la ola de la IA F&#237;sica? si a&#250;n no lo tienes claro, te invito a participar en el <a href="https://www.youtube.com/live/XKPkbLEutJ8?si=4VKmafJgYtnj8d0I">webinar</a> que voy a realizar el 25 de marzo a las 19h.</p><div><hr></div><h3>M&#225;s noticias sobre rob&#243;tica e inteligencia artificial f&#237;sica</h3><p>&#129504; <a href="https://amilabs.xyz/">AMI labs</a> es el nombre elegido por <strong>Yann LeCun</strong> para su laboratorio en el que demostrar que su visi&#243;n sobre c&#243;mo escalar la IA a trav&#233;s de los modelos del mundo. Y para conseguirlo va a tener un camino de oro porque importantes fondos de inversi&#243;n le han puesto sobre la mesa m&#225;s de mil millones de d&#243;lares en lo que supone la mayor ronda de inversi&#243;n de la historia para una startup europea, en la que adem&#225;s han participado importantes figuras de la tecnolog&#237;a como Jeff Bezos, Tim Berners-Lee, Mark Cuban, Xavier Niel y Eric Schmidt.</p><p>&#9883;&#65039; <a href="https://x.com/travisk/status/2032527564774977703?s=46">Atoms</a> es el nuevo emprendimiento de <strong>Travis Kalanik</strong>, el fundador de <strong>Uber</strong>, donde se ha propuesto como objetivo digitalizar el mundo f&#237;sico, empezando por construir robots que puedan trabajar en los sectores de la miner&#237;a y el transporte. Aunque a&#250;n el tipo de robots que va a construir no se conoce, por lo que parece su elecci&#243;n pasa por los robots especializados para tareas industriales en lugar de robots humanoides generalistas.</p><p>&#129412; <a href="https://www.rhoda.ai/">Rhoda AI</a> ha recaudado 450 millones de d&#243;lares en financiaci&#243;n para desarrollar un nuevo modelo de IA entrenado con millones de v&#237;deos de internet disponibles p&#250;blicamente, con el objetivo que los <strong>robots industriales</strong> puedan realizar todo tipo de tareas, incluso en condiciones desconocidas. La ronda de financiaci&#243;n ha sido liderada por Premji Invest y valora la startup en 1.700 millones de d&#243;lares.</p><p>&#127981; <a href="https://www.businesswire.com/news/home/20260311414783/en/Mind-Robotics-Announces-%24500M-Financing-to-Support-Deployment-of-AI-Powered-Robots-at-Industrial-Scale">Mind Robotics</a> anunci&#243; hoy una ronda de financiaci&#243;n de 500 millones de d&#243;lares, codirigida por Accel y Andreessen Horowitz, para desarrollar e implementar sistemas <strong>rob&#243;ticos con inteligencia artificial a escala industrial</strong>. Sameer Gandhi, socio de Accel, se unir&#225; al Consejo de Administraci&#243;n de Mind Robotics. Esta financiaci&#243;n se suma a una ronda de financiaci&#243;n inicial de 115 millones de d&#243;lares liderada por Eclipse Capital a finales de 2025.</p><p>&#127968;  <a href="https://www.sunday.ai/journal/series-b">Sunday</a> recauda 165 millones de d&#243;lares y se compromete a no hacer m&#225;s demos. Con una sobresuscripci&#243;n y una valoraci&#243;n de 1.150 millones de d&#243;lares, Tiene el objetivo de <strong>dejar de lado las demostraciones</strong> y llevar el primer robot dom&#233;stico aut&#243;nomo a los hogares este a&#241;o. El despliegue p&#250;blico comenzar&#225; con un programa beta, que se implementar&#225; para los usuarios este oto&#241;o.</p><p>&#129309; <a href="https://bostondynamics.com/news/boston-dynamics-fieldai-partner-to-bring-robots-into-uncharted-dynamic-environments/">Boston Dynamics</a> y <strong>FieldAI</strong> se asocian para llevar robots a entornos din&#225;micos e inexplorados, como son la construcci&#243;n y otros entornos complejos y en constante evoluci&#243;n. Gracias a esta colaboraci&#243;n con FieldAI, l&#237;der reconocido en IA rob&#243;tica y operaciones aut&#243;nomas, los robots de Boston podr&#225;n entrar en una nueva era de autonom&#237;a de prop&#243;sito general.</p><p>&#128736;&#65039; <a href="https://www.fieldai.com/news/fieldai-accelerates-industrial-customers-adoption-of-ai-in-collaboration-with-nvidia">FieldAI</a> anuncia colaboraci&#243;n con <strong>NVIDIA</strong> para acelerar la adopci&#243;n de IA en entornos industriales. La integraci&#243;n permite generar entornos digitales a partir de datos de sensores y entrenar robots con datos sint&#233;ticos. El objetivo es mejorar el rendimiento de los sistemas desplegados en operaciones reales. Foco en pipeline de datos y simulaci&#243;n.</p><p>&#128218; <a href="https://www.dell.com/en-us/blog/from-kitchen-table-curiosity-to-educational-impact-why-this-robotics-pairing-matters/">Dell</a> colabora con <strong>Pollen Robotics</strong>, <strong>Hugging Face</strong> y <strong>NVIDIA</strong> para facilitar el acceso a la rob&#243;tica pr&#225;ctica y la IA local a estudiantes, educadores y aficionados. Reachy Mini, un kit de rob&#243;tica asequible y de c&#243;digo abierto, se combina con Dell Pro Max con GB10 para ejecutar modelos avanzados de lenguaje, visi&#243;n y voz completamente en el dispositivo, garantizando privacidad y velocidad.</p><p>&#128230; <a href="https://www.roboticstomorrow.com/news/2026/03/05/dexteritys-world-model-foresight-delivers-a-big-leap-for-physical-ai-powered-truck-loading/26215">Dexterity</a> presenta Foresight, un <strong>modelo de mundo </strong>dise&#241;ado para rob&#243;tica industrial. El sistema permite a robots tomar decisiones en tiempo real en tareas complejas como la carga de camiones, optimizando la colocaci&#243;n de objetos en el espacio y el tiempo. Est&#225; entrenado con grandes vol&#250;menes de datos operativos reales. Enfocado en producci&#243;n, no en investigaci&#243;n.</p><p>&#128288; <a href="https://news.mit.edu/2026/better-method-planning-complex-visual-tasks-0311">MIT</a> introduce un sistema que combina <strong>modelos de lenguaje visual</strong> con planificaci&#243;n formal para resolver tareas complejas en entornos 3D. Un modelo interpreta la escena y genera acciones, mientras otro traduce esas acciones a representaciones estructuradas que pueden ejecutar planificadores cl&#225;sicos. Mejora el rendimiento en escenarios no vistos. Arquitectura h&#237;brida, no end-to-end.</p><p>&#128064; <a href="https://www.therobotreport.com/realsense-unveils-autonomous-humanoid-navigation-gtc-2026">RealSense</a> presenta un sistema de <strong>navegaci&#243;n aut&#243;noma para robots humanoides</strong> basado en visi&#243;n y SLAM. La soluci&#243;n permite la localizaci&#243;n y evitaci&#243;n de obst&#225;culos en tiempo real, incluyendo entornos din&#225;micos con personas. El sistema ha sido entrenado en simulaci&#243;n antes de su despliegue f&#237;sico. Orientado a percepci&#243;n + navegaci&#243;n robusta.</p>]]></content:encoded></item><item><title><![CDATA[¿Es Figure el robot más avanzado del mundo?]]></title><description><![CDATA[Hay que reconocer que en Figure el marketing lo tienen muy logrado, pero el reto ahora es demostrar que se les da tan bien la parte de ingenier&#237;a.]]></description><link>https://www.integrarobot.com/p/es-figure-el-robot-mas-avanzado-del</link><guid isPermaLink="false">https://www.integrarobot.com/p/es-figure-el-robot-mas-avanzado-del</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Mon, 16 Mar 2026 11:02:54 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!WGq2!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F309cca94-9473-42c3-822e-a5689778d609_2268x1640.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!WGq2!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F309cca94-9473-42c3-822e-a5689778d609_2268x1640.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!WGq2!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F309cca94-9473-42c3-822e-a5689778d609_2268x1640.png 424w, https://substackcdn.com/image/fetch/$s_!WGq2!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F309cca94-9473-42c3-822e-a5689778d609_2268x1640.png 848w, https://substackcdn.com/image/fetch/$s_!WGq2!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F309cca94-9473-42c3-822e-a5689778d609_2268x1640.png 1272w, https://substackcdn.com/image/fetch/$s_!WGq2!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F309cca94-9473-42c3-822e-a5689778d609_2268x1640.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!WGq2!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F309cca94-9473-42c3-822e-a5689778d609_2268x1640.png" width="1456" height="1053" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/309cca94-9473-42c3-822e-a5689778d609_2268x1640.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:1053,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:2918913,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:&quot;https://www.integrarobot.com/i/191102723?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F309cca94-9473-42c3-822e-a5689778d609_2268x1640.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!WGq2!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F309cca94-9473-42c3-822e-a5689778d609_2268x1640.png 424w, https://substackcdn.com/image/fetch/$s_!WGq2!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F309cca94-9473-42c3-822e-a5689778d609_2268x1640.png 848w, https://substackcdn.com/image/fetch/$s_!WGq2!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F309cca94-9473-42c3-822e-a5689778d609_2268x1640.png 1272w, https://substackcdn.com/image/fetch/$s_!WGq2!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F309cca94-9473-42c3-822e-a5689778d609_2268x1640.png 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p>Imagina que est&#225;s en <strong>1900</strong> y pretendes dilucidar cu&#225;l ser&#225; el futuro del <strong>sector de la automoci&#243;n</strong>. En esa d&#233;cada, el mercado de los coches era como el Lejano Oeste. Solo en Estados Unidos, llegaron a existir m&#225;s de 2.000 marcas diferentes. Cualquier mec&#225;nico con un taller pod&#237;a intentar fabricar su propio coche. Muchas de las marcas conocidas estaban dando sus primeros pasos aqu&#237;: Cadillac, Ford, Renault, Fiat, Peugeot, Mercedes, Opel, &#8230;</p><p>No es dif&#237;cil suponer que con los <strong>robots humanoides</strong> o robots de prop&#243;sito general suceder&#225; algo similar que lo ocurrido con los coches en el &#250;ltimo siglo. Igual que todo el mundo quiere tener un coche, un ordenador y un smartphone, el robot no se quedar&#225; como un producto destinado en exclusiva a la industria, sino que los fabricantes tienen claro que el mercado ser&#225; global y para todos los p&#250;blicos.</p><p>En este contexto es donde nos encontramos con la competencia entre fabricantes de robots, aunque ahora no tanto por ver cu&#225;l es el que m&#225;s robots vende sino en una fase m&#225;s preliminar por comprobar cu&#225;l capta m&#225;s inter&#233;s por parte de inversores y el mercado en general para comenzar cuanto antes a dar los siguientes pasos a nivel de comercializaci&#243;n. Bueno, excluyendo de esto a <a href="https://www.integrarobot.com/p/unitree-g1-el-robot-mas-vendido-del">Unitree</a> que s&#237; que est&#225; vendiendo todo lo que puede aunque el producto no se pueda dar por terminado.</p><p>Dicho esto, vamos a ver en qu&#233; estado de desarrollo se encuentra <strong>Figure</strong> como producto y tambi&#233;n como empresa, de cara a entender si realmente es el robot m&#225;s avanzado del mercado a nivel t&#233;cnico y qu&#233; implicaciones de futuro puede esto tener. Lo digo porque si nos fijamos exclusivamente en en las demostraciones que hace la empresa s&#237; que se podr&#237;a deducir esto, pero sin embargo esto contrasta con la realidad de que no han dejado ver al robot en p&#250;blico en situaciones como s&#237; han hecho otras empresas, ya sea Tesla o Boston que lo llevan a eventos para que la gente pueda verlos funcionar en situaciones reales.</p><h1>Figure AI</h1><p>Figure es una startup estadounidense fundada en 2022 con el objetivo expl&#237;cito de desarrollar <strong>robots humanoides de prop&#243;sito general capaces de trabajar junto a personas</strong>.</p><p>La empresa ha captado r&#225;pidamente la atenci&#243;n del sector tecnol&#243;gico por varias razones:</p><ul><li><p>Ha reunido a ingenieros procedentes de empresas como Boston Dynamics, Tesla o Apple.</p></li><li><p>Ha cerrado una de las rondas de financiaci&#243;n m&#225;s grandes de la historia de la rob&#243;tica humanoide.</p></li><li><p>Tiene acuerdos estrat&#233;gicos con compa&#241;&#237;as del ecosistema de inteligencia artificial.</p></li></ul><p>Entre sus inversores y socios tecnol&#243;gicos figuran empresas como <strong>Microsoft</strong>, <strong>NVIDIA</strong>, <strong>OpenAI</strong> y <strong>Amazon</strong>, lo que ha alimentado la percepci&#243;n de que Figure podr&#237;a convertirse en una de las plataformas principales de la futura rob&#243;tica impulsada por IA.</p><p>Su objetivo es construir un robot capaz de realizar <strong>trabajo f&#237;sico generalista</strong>, empezando por entornos industriales y log&#237;sticos.</p><div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!oTv6!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2062a31d-44a1-4975-80e7-ab093aefd470_1536x1024.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!oTv6!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2062a31d-44a1-4975-80e7-ab093aefd470_1536x1024.png 424w, https://substackcdn.com/image/fetch/$s_!oTv6!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2062a31d-44a1-4975-80e7-ab093aefd470_1536x1024.png 848w, https://substackcdn.com/image/fetch/$s_!oTv6!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2062a31d-44a1-4975-80e7-ab093aefd470_1536x1024.png 1272w, https://substackcdn.com/image/fetch/$s_!oTv6!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2062a31d-44a1-4975-80e7-ab093aefd470_1536x1024.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!oTv6!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2062a31d-44a1-4975-80e7-ab093aefd470_1536x1024.png" width="1456" height="971" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/2062a31d-44a1-4975-80e7-ab093aefd470_1536x1024.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:971,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:2455496,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:true,&quot;topImage&quot;:false,&quot;internalRedirect&quot;:&quot;https://www.integrarobot.com/i/191102723?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2062a31d-44a1-4975-80e7-ab093aefd470_1536x1024.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!oTv6!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2062a31d-44a1-4975-80e7-ab093aefd470_1536x1024.png 424w, https://substackcdn.com/image/fetch/$s_!oTv6!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2062a31d-44a1-4975-80e7-ab093aefd470_1536x1024.png 848w, https://substackcdn.com/image/fetch/$s_!oTv6!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2062a31d-44a1-4975-80e7-ab093aefd470_1536x1024.png 1272w, https://substackcdn.com/image/fetch/$s_!oTv6!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F2062a31d-44a1-4975-80e7-ab093aefd470_1536x1024.png 1456w" sizes="100vw" loading="lazy"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><h2>Aplicaciones</h2><p>Las aplicaciones previstas para el robot humanoide de Figure se centran inicialmente en entornos industriales estructurados.</p><ul><li><p>Automatizaci&#243;n de tareas repetitivas en f&#225;bricas</p></li><li><p>Manipulaci&#243;n y transporte de piezas</p></li><li><p>Log&#237;stica interna en plantas de producci&#243;n</p></li><li><p>Clasificaci&#243;n y preparaci&#243;n de pedidos</p></li><li><p>Operaciones industriales peligrosas o poco atractivas para trabajadores</p></li><li><p>Recogida de datos para entrenamiento de sistemas de IA f&#237;sica</p></li></ul><p>El primer piloto industrial conocido se est&#225; desarrollando con <strong>BMW</strong>, donde el robot se est&#225; probando en tareas de manipulaci&#243;n y log&#237;stica dentro de una planta de producci&#243;n.</p><h2>Aspectos clave</h2><ul><li><p>Robot humanoide dise&#241;ado para trabajo industrial generalista</p></li><li><p>Arquitectura de inteligencia artificial multimodal</p></li><li><p>Integraci&#243;n con modelos de lenguaje y visi&#243;n</p></li><li><p>Enfoque en automatizaci&#243;n de trabajo f&#237;sico repetitivo</p></li><li><p>Desarrollo orientado a despliegues en f&#225;bricas y log&#237;stica</p></li><li><p>Fuerte respaldo financiero de grandes empresas tecnol&#243;gicas</p></li></ul><p>Una de las caracter&#237;sticas m&#225;s comentadas del robot es su capacidad para <strong>interactuar mediante lenguaje natural mientras manipula objetos</strong>, lo que apunta a una integraci&#243;n directa entre modelos de lenguaje y control rob&#243;tico.</p><h2>Especificaciones principales</h2><p>Las especificaciones completas del robot no han sido publicadas oficialmente en todos los detalles, pero se conocen estimaciones aproximadas del modelo m&#225;s reciente, <strong>Figure-02</strong>.</p><ul><li><p>Altura: 172 cm</p></li><li><p>Peso: 61 kg</p></li><li><p>Grados de libertad: ~40 DoF</p></li><li><p>Velocidad m&#225;xima: 1.2 m/s</p></li><li><p>Carga &#250;til: 20 kg</p></li><li><p>Autonom&#237;a: ~5 horas</p></li></ul><p>Estas cifras lo sit&#250;an dentro del rango habitual de robots humanoides dise&#241;ados para trabajo f&#237;sico.</p><h2>Construcci&#243;n</h2><ul><li><p>Estructura humanoide b&#237;peda optimizada para estabilidad</p></li><li><p>Dise&#241;o pensado para manipulaci&#243;n con dos brazos</p></li><li><p>Bater&#237;a integrada en el torso</p></li><li><p>Arquitectura orientada a trabajo industrial continuo</p></li><li><p>Componentes dise&#241;ados para futura producci&#243;n en serie</p></li></ul><p>El objetivo de dise&#241;o es que el robot pueda operar en entornos pensados para humanos sin necesidad de modificar la infraestructura existente.</p><h2>Computaci&#243;n</h2><p>El robot integra un sistema de c&#243;mputo avanzado orientado a inteligencia artificial.</p><ul><li><p>Procesamiento basado en GPU</p></li><li><p>Entrenamiento mediante infraestructuras cloud</p></li><li><p>Integraci&#243;n con modelos de lenguaje y visi&#243;n</p></li><li><p>Arquitectura compatible con aprendizaje continuo</p></li></ul><p>El enfoque de Figure se basa en combinar <strong>modelos multimodales con control rob&#243;tico</strong>, lo que se acerca a lo que en investigaci&#243;n se denomina modelos <strong>Vision-Language-Action (VLA)</strong>.</p><h2>Sens&#243;rica</h2><p>El sistema sensorial del robot incluye distintos tipos de sensores necesarios para interactuar con el entorno f&#237;sico.</p><ul><li><p>C&#225;maras RGB para percepci&#243;n visual</p></li><li><p>Sensores de profundidad</p></li><li><p>IMU interna</p></li><li><p>Sensores de posici&#243;n en articulaciones</p></li><li><p>Sensores de fuerza y par</p></li><li><p>Sensores t&#225;ctiles en las manos</p></li></ul><p>Esta combinaci&#243;n permite realizar manipulaci&#243;n de objetos y navegaci&#243;n en entornos complejos.</p><h2>Actuaci&#243;n</h2><ul><li><p>Actuadores el&#233;ctricos de alta precisi&#243;n</p></li><li><p>Control de par en articulaciones</p></li><li><p>Manos antropom&#243;rficas con m&#250;ltiples grados de libertad</p></li><li><p>Capacidad de manipulaci&#243;n fina</p></li></ul><p>La destreza manual es uno de los aspectos m&#225;s importantes para robots humanoides que aspiran a realizar tareas industriales.</p><h2>Alimentaci&#243;n</h2><ul><li><p>Bater&#237;a el&#233;ctrica integrada</p></li><li><p>Sistema de gesti&#243;n energ&#233;tica interno</p></li><li><p>Autonom&#237;a estimada entre 2 y 5 horas de trabajo continuo</p></li></ul><p>El dise&#241;o busca equilibrar potencia y duraci&#243;n para tareas industriales.</p><h2>Software de IA Helix</h2><p>El software del robot se basa en una arquitectura de inteligencia artificial moderna.</p><ul><li><p>Modelos multimodales para comprensi&#243;n del entorno</p></li><li><p>Integraci&#243;n de lenguaje natural</p></li><li><p>Aprendizaje por demostraci&#243;n</p></li><li><p>Teleoperaci&#243;n para generaci&#243;n de datos</p></li><li><p>Simulaci&#243;n para entrenamiento previo al despliegue</p></li></ul><p>Este enfoque intenta acelerar el aprendizaje del robot combinando datos reales con simulaci&#243;n.</p><h2>Producci&#243;n y econom&#237;a</h2><p>Figure todav&#237;a no ha iniciado producci&#243;n masiva.</p><p>El plan actual sigue una estrategia similar a la de otros fabricantes de humanoides:</p><ol><li><p>Desarrollo del prototipo</p></li><li><p>Pilotos industriales con empresas colaboradoras</p></li><li><p>Producci&#243;n limitada</p></li><li><p>Escalado progresivo hacia fabricaci&#243;n masiva</p></li></ol><p>El primer despliegue industrial anunciado se est&#225; realizando con BMW.</p><h2>Coste</h2><p>El coste exacto del robot no ha sido publicado oficialmente.</p><p>Sin embargo, estimaciones del sector sit&#250;an los robots humanoides actuales en un rango aproximado de:</p><ul><li><p>Coste estimado actual: 30.000 &#8211; 150.000 USD seg&#250;n configuraci&#243;n</p></li><li><p>Objetivo a largo plazo: &lt; 30.000 USD</p></li></ul><p>El objetivo final del sector es alcanzar costes comparables al salario anual de un trabajador, lo que permitir&#237;a justificar econ&#243;micamente su adopci&#243;n a gran escala.</p><h2>Conclusi&#243;n</h2><p><strong>Figure</strong> se ha convertido en una de las empresas m&#225;s observadas dentro del sector de la rob&#243;tica humanoide.</p><p>No necesariamente porque su robot sea el m&#225;s avanzado t&#233;cnicamente, algo dif&#237;cil de afirmar en un mercado tan joven, sino porque ha logrado reunir tres elementos poco comunes:</p><ul><li><p>Financiaci&#243;n masiva</p></li><li><p>Alianzas con grandes empresas tecnol&#243;gicas</p></li><li><p>Primeros pilotos industriales</p></li></ul><p>Si la empresa consigue transformar estas demostraciones en despliegues reales a gran escala, podr&#237;a convertirse en uno de los actores clave en la transici&#243;n hacia la rob&#243;tica de prop&#243;sito general.</p><p>Pero como ocurre con todo el sector de los humanoides, todav&#237;a estamos en una fase muy temprana de desarrollo.</p>]]></content:encoded></item><item><title><![CDATA[Casos de uso - Curso Robots Humanoides]]></title><description><![CDATA[&#191;D&#243;nde veremos primero los robots humanoides?]]></description><link>https://www.integrarobot.com/p/casos-de-uso-curso-robots-humanoides</link><guid isPermaLink="false">https://www.integrarobot.com/p/casos-de-uso-curso-robots-humanoides</guid><pubDate>Fri, 13 Mar 2026 15:19:07 GMT</pubDate><enclosure url="https://substack-video.s3.amazonaws.com/video_upload/post/190836926/359562a7-215c-442d-8670-9ad45ebc98b5/transcoded-05661.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>&#191;D&#243;nde veremos primero los robots humanoides?</p><p>Si nos fijamos en las demostraciones que hacen los fabricantes podemos imaginar robots en casa ayud&#225;ndonos con las tareas dom&#233;sticas. Sin embargo, el mercado podr&#237;a a evolucionar de otra manera.</p><p>Los primeros lugares donde veremos robots humanoides deber&#237;an ser los sectores donde existe una necesidad econ&#243;mica &#8230;</p>
      <p>
          <a href="https://www.integrarobot.com/p/casos-de-uso-curso-robots-humanoides">
              Read more
          </a>
      </p>
   ]]></content:encoded></item><item><title><![CDATA[Los robots nos llevarán a las estrellas]]></title><description><![CDATA[Dedica un momento a ver el trabajo de GITAI, es hipn&#243;tico.]]></description><link>https://www.integrarobot.com/p/los-robots-nos-llevaran-a-las-estrellas</link><guid isPermaLink="false">https://www.integrarobot.com/p/los-robots-nos-llevaran-a-las-estrellas</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Wed, 11 Mar 2026 11:01:50 GMT</pubDate><enclosure url="https://api.substack.com/feed/podcast/190371810/6ab9ef1d0001ae9438236164c715d99f.mp3" length="0" type="audio/mpeg"/><content:encoded><![CDATA[<p>Si los <strong>robots humanoides</strong> han llegado para ocuparse de los trabajos peligrosos, cuando los mandemos a explorar el espacio se sentir&#225;n como pez en el agua.</p><p>Y no ser&#225; porque no haya personas que quieran ser astronautas. El problema es que el espacio es un entorno profundamente hostil para el cuerpo humano.</p><ul><li><p>Radiaci&#243;n c&#243;smica</p></li><li><p>Vac&#237;o</p></li><li><p>Temperaturas extremas</p></li><li><p>Gravedad reducida</p></li></ul><p>Se podr&#237;a decir que todo lo que hay fuera de la Tierra est&#225;, literalmente, dise&#241;ado para matarnos.</p><p>Durante d&#233;cadas la exploraci&#243;n espacial ha intentado resolver este problema protegiendo a los astronautas con tecnolog&#237;a cada vez m&#225;s compleja: trajes, estaciones espaciales, sistemas de soporte vital o c&#225;psulas presurizadas. Pero existe una soluci&#243;n mucho m&#225;s directa. No enviar humanos. Enviar robots.</p><h3>El paso l&#243;gico de la IA f&#237;sica</h3><p>Si observamos la evoluci&#243;n tecnol&#243;gica reciente, la idea de enviar robots al espacio empieza a ser inevitable.</p><p>La inteligencia artificial est&#225; saliendo del mundo digital para integrarse en m&#225;quinas f&#237;sicas capaces de percibir, decidir y actuar en el mundo real. Es lo que llamamos <strong>IA f&#237;sica</strong>.</p><p>En la Tierra, esto se traduce en robots humanoides que trabajar&#225;n en f&#225;bricas, almacenes, servicios e incluso en los hogares.</p><p>En el espacio, esta idea tiene a&#250;n m&#225;s sentido: un robot no necesita ox&#237;geno ni alimentos, solo energ&#237;a, y all&#237; afuera hay mucha en forma de radiaci&#243;n solar. Tampoco necesita protecci&#243;n contra la radiaci&#243;n comparable a la de un humano.</p><p>Esto permite que los robots puedan trabajar durante semanas, meses o a&#241;os en entornos donde una persona solo podr&#237;a sobrevivir minutos.</p><p>Por eso es de suponer que muchas de las pr&#243;ximas misiones espaciales, como la pr&#243;xima colonizaci&#243;n de la Luna, no estar&#225;n protagonizadas por astronautas, sino por robots.</p><h3>La nueva industria de la construcci&#243;n espacial</h3><p>Durante d&#233;cadas hemos pensado en el espacio principalmente como un lugar de exploraci&#243;n.</p><p>Pero lo que empieza a emerger ahora es una <strong>nueva econom&#237;a espacial</strong>.</p><ul><li><p>Sat&#233;lites</p></li><li><p>Infraestructura orbital</p></li><li><p>Datacenters en el espacio</p></li><li><p>Estaciones espaciales comerciales</p></li><li><p>Bases lunares</p></li><li><p>Producci&#243;n en microgravedad</p></li></ul><p>Todo eso requiere algo que hasta ahora no exist&#237;a y donde los robots tendr&#225;n mucho que aportar: capacidad de construcci&#243;n en el espacio.</p><p>Y aqu&#237; es donde entran en juego un par de empresas que me parece que est&#225;n haciendo un trabajo extremadamente interesante.</p><h3>Gitai Robotics: startup for space development</h3><p>La empresa japonesa <a href="https://gitai.tech/">Gitai</a> est&#225; desarrollando robots espec&#237;ficamente dise&#241;ados para trabajar fuera de la Tierra.</p><p>Su objetivo es muy claro: construir y mantener infraestructura espacial sin necesidad de recurrir a astronautas.</p><p>Entre sus desarrollos destacan:</p><ul><li><p>Robots humanoides para operaciones en estaciones espaciales</p></li><li><p>Brazos rob&#243;ticos avanzados para manipulaci&#243;n en &#243;rbita</p></li><li><p>Sistemas de mantenimiento y ensamblaje de sat&#233;lites</p></li><li><p>Robots capaces de operar en la superficie lunar</p></li></ul><p>La l&#243;gica detr&#225;s de este enfoque es sencilla, enviar robots al espacio es mucho m&#225;s barato y escalable que enviar astronautas.</p><p>Si los robots pueden encargarse del trabajo f&#237;sico, los humanos pueden centrarse en supervisar, dise&#241;ar y tomar decisiones desde la Tierra.</p><h3>Intuitive Machines: open access to the Moon for the progress of Humanity</h3><p>Otra empresa que merece la pena seguir es <a href="https://www.intuitivemachines.com/">Intuitive Machines</a>, una compa&#241;&#237;a estadounidense especializada en misiones lunares, fundada en 2013 y que cotiza en bolsa desde 2021.</p><p>Para conseguir su misi&#243;n trabajan en el desarrollo de veh&#237;culos de aterrizaje lunar, infraestructura de comunicaci&#243;n y sistemas rob&#243;ticos para operaciones en la Luna.</p><p>La <strong>NASA</strong> ya ha contratado a esta empresa dentro del programa CLPS (Commercial Lunar Payload Services) para transportar cargas a la superficie lunar.</p><p>Su objetivo es claro: preparar el terreno para una <strong>presencia humana sostenida en la Luna</strong>.</p><p>Y nuevamente, los robots jugar&#225;n un papel fundamental.</p><p>Antes de que lleguen los astronautas, alguien tendr&#225; que instalar instrumentos cient&#237;ficos, preparar infraestructuras, construir plataformas y realizar mantenimiento</p><p>Ese trabajo lo har&#225;n los robots.</p><h3>Motiv Space Systems: building the future of space, extending your reach</h3><p>Otra empresa a seguir es <a href="https://motivss.com/">Motiv Space Systems</a>, una compa&#241;&#237;a estadounidense especializada en sistemas rob&#243;ticos para operaciones espaciales.</p><p>A diferencia de Gitai, que est&#225; desarrollando robots relativamente completos para trabajar en estaciones espaciales o en la superficie lunar, Motiv se centra en algo m&#225;s espec&#237;fico pero igual de importante: <strong>la manipulaci&#243;n rob&#243;tica de precisi&#243;n en el espacio</strong>.</p><p>La empresa desarrolla principalmente:</p><ul><li><p>Brazos rob&#243;ticos espaciales</p></li><li><p>Sistemas de control y software de manipulaci&#243;n</p></li><li><p>Interfaces humano-m&#225;quina para teleoperaci&#243;n</p></li><li><p>Mecanismos de captura y ensamblaje orbital</p></li></ul><p>Estos sistemas permiten realizar tareas que hasta ahora requer&#237;an caminatas espaciales de astronautas: manipular instrumentos, ensamblar estructuras, reparar sat&#233;lites o mover cargas en &#243;rbita.</p><p>Y aqu&#237; aparece un cambio conceptual importante.</p><p>Durante d&#233;cadas los brazos rob&#243;ticos espaciales, como el famoso Canadarm de la Estaci&#243;n Espacial Internacional, eran herramientas relativamente r&#237;gidas, dise&#241;adas para tareas muy concretas. La nueva generaci&#243;n de sistemas rob&#243;ticos est&#225; empezando a incorporar mayor autonom&#237;a, sensores avanzados y capacidades de percepci&#243;n, acerc&#225;ndose al paradigma de la IA f&#237;sica: m&#225;quinas que perciben el entorno, toman decisiones y act&#250;an sobre &#233;l.</p><p>Esto encaja con una tendencia m&#225;s amplia en la rob&#243;tica.</p><p>De esta forma, y gracias al trabajo de empresas como Motiv Space Systems, los robots est&#225;n empezando a abandonar el modelo cl&#225;sico de automatizaci&#243;n r&#237;gida para acercarse a sistemas capaces de interactuar con el mundo f&#237;sico de forma m&#225;s flexible y aut&#243;noma, combinando sensores, visi&#243;n artificial y algoritmos de aprendizaje.</p><h3>Primero robots, despu&#233;s humanos</h3><p>La historia de la exploraci&#243;n siempre ha seguido el mismo patr&#243;n y ahora con la rob&#243;tica se va a intensificar.</p><p>Primero llegan las m&#225;quinas. Despu&#233;s van las personas.</p><p>Los sat&#233;lites precedieron a los astronautas.<br>Los rovers se adelantaron a los posibles colonos de Marte.</p><p>Y probablemente ocurrir&#225; pronto lo mismo con la colonizaci&#243;n de la Luna y con el resto del sistema solar.</p><p>La primera gran ola de exploraci&#243;n espacial del siglo XXI no estar&#225; protagonizada por humanos. Estar&#225; protagonizada por robots. Gitai e Intuitive Machines ya trabajan para hacerlo realidad.</p><div><hr></div><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://www.integrarobot.com/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">Estoy poniendo en marcha la comunidad de rob&#243;tica e IA F&#237;sica, si quieres unirte a otros pioneros de los robots puedes apuntarte ahora.</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div><div><hr></div><h2>M&#225;s noticias sobre rob&#243;tica e IA F&#237;sica</h2><p>&#128176; <a href="https://www.bloomberg.com/news/articles/2026-03-04/neura-robotics-raising-1-billion-in-round-backed-by-tether">Neura</a> consigue 1000 millones de d&#243;lares de financiaci&#243;n en una ronda donde destaca como inversor <strong>Tether</strong>, la empresa de stablecoins. Esta inversi&#243;n valora a la empresa en unos 4.000 millones de euros y tiene como objetivo avanzar en el desarrollo de robots humanoides impulsados por inteligencia artificial.</p><p>&#128220; <a href="https://www.ycombinator.com/launches/PeP-human-archive-large-scale-multimodal-datasets-for-robotics-and-world-modeling">Human Archive</a> es una startup impulsada por <strong>Y Combinator</strong> que tiene como objetivo capturar la estructura de c&#243;mo los humanos interact&#250;an con el mundo f&#237;sico para modelar la inteligencia sensoriomotora a gran escala.</p><p>&#129504; <a href="https://www.pi.website/research/memory">Physical Intelligence</a> sigue avanzado en el desarrollo de su inteligencia artificial para robots y en esta ocasi&#243;n nos presenta su modelo <strong>VLA con memoria</strong> a largo plazo, el cual permite que los robots puedan realizar trabajos completos (como limpiar la cocina), no solo tareas puntuales (poner el lavavajillas).</p><p>&#128400;&#65039; <a href="https://arxiv.org/abs/2603.04363">ManipulationNet</a> es una nueva infraestructura dise&#241;ada para medir la capacidad de los robots para manipular objetos en el mundo real. Esta iniciativa busca resolver uno de los problemas m&#225;s persistentes en rob&#243;tica: la falta de un par&#225;metro com&#250;n para la <strong>manipulaci&#243;n diestra</strong>.</p><p>&#128187; <a href="https://www.ti.com/about-ti/newsroom/news-releases/2026/2026-03-05-ti-accelerates-the-next-generation-of-physical-ai-with-nvidia.html">Texas Instruments</a> tambi&#233;n trabaja en IA F&#237;sica. TI est&#225; colaborando con <strong>NVIDIA</strong> con el objetivo de integrar su tecnolog&#237;a de radar mmWave con NVIDIA Jetson Thor y NVIDIA Holoscan para permitir la percepci&#243;n 3D de baja latencia y el conocimiento de seguridad para aplicaciones de IA f&#237;sica.</p><p>&#129470; <a href="https://www.noblemachines.ai/">Noble Machines</a> es una startup creada por ingenieros de Apple, SpaceX, NASA, DeepMind, AWS y Tesla, que en tan solo <strong>18 meses</strong> ha creado un robot de uso general que realiza tareas industriales peligrosas y f&#237;sicamente exigentes, con la misi&#243;n de contribuir a alcanzar un mundo m&#225;s seguro, m&#225;s eficiente y m&#225;s productivo.</p><p>&#128171; <a href="https://asimov.inc/diy-kit">Asimov</a> abre pedidos anticipados para su <strong>kit de montaje</strong> del robot humanoide de c&#243;digo abierto de aproximadamente 1,2 metros de alto y m&#225;s de 25 grados de libertad. Comienza con una reserva de 499 d&#243;lares y le ponen un precio objetivo de 15.000 d&#243;lares.</p><p>&#128027; <a href="https://www.sciencedirect.com/science/article/pii/S2468067226000118">Mercator</a> es un robot m&#243;vil con orugas, dise&#241;ado para enjambres. El sistema funciona con una <strong>Raspberry Pi 4</strong>, es compatible con ROS y su precio oscila entre 800 y 1200 euros. Integra reconocimiento de objetos y personas a bordo, detecci&#243;n de obst&#225;culos de corto y largo alcance, seguimiento desde el techo y comunicaci&#243;n local y descentralizada</p>]]></content:encoded></item><item><title><![CDATA[Historia de la robótica - Curso Robots Humanoides]]></title><description><![CDATA[Lo que la historia de la rob&#243;tica nos ense&#241;a sobre la llegada de los robots humanoides.]]></description><link>https://www.integrarobot.com/p/historia-de-la-robotica-curso-robots</link><guid isPermaLink="false">https://www.integrarobot.com/p/historia-de-la-robotica-curso-robots</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Sat, 07 Mar 2026 11:02:24 GMT</pubDate><enclosure url="https://substack-video.s3.amazonaws.com/video_upload/post/189986116/700a0964-6002-425c-a473-d53c3acf09b4/transcoded-00001.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>La historia de la rob&#243;tica puede darnos algunas pistas al respecto de c&#243;mo puede desarrollarse esta tecnolog&#237;a en los pr&#243;ximos a&#241;os.</p><p>En primer lugar destacar la necesidad que ha tenido la humanidad a lo largo de toda la historia de crear m&#225;quinas que solucionen necesidades f&#237;sicas espec&#237;ficas, empezando por los relojes e incluso los <strong>aut&#243;matas</strong> que usaban &#8230;</p>
      <p>
          <a href="https://www.integrarobot.com/p/historia-de-la-robotica-curso-robots">
              Read more
          </a>
      </p>
   ]]></content:encoded></item><item><title><![CDATA[Cómo subirse a la ola de la IA Física]]></title><description><![CDATA[El 25 de marzo organizo un webinar para exponer las oportunidades que va a ofrecer la rob&#243;tica impulsada por inteligencia artificial.]]></description><link>https://www.integrarobot.com/p/como-subirse-a-la-ola-de-la-ia-fisica</link><guid isPermaLink="false">https://www.integrarobot.com/p/como-subirse-a-la-ola-de-la-ia-fisica</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Wed, 04 Mar 2026 11:03:29 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!TeFS!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff36a3678-547b-43e8-9488-c6fcad3e5981_960x540.jpeg" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>Cuando me encuentro noticias c&#243;mo la creaci&#243;n de la empresa <a href="https://www.noblemachines.ai/">Noble Machines</a> por parte de ingenieros de <strong>Apple</strong>, <strong>SpaceX</strong>, <strong>NASA</strong>, <strong>DeepMind</strong>, <strong>Amazon</strong> y <strong>Tesla</strong>, que dejan sus trabajos para emprender creando un nuevo robot humanoide no puedo pensar otra cosa que en ayudar a que cada vez haya m&#225;s gente que, como estos valientes, se suba a la ola de la <strong>IA F&#237;sica</strong>.</p><p>Ser&#225; arriesgado, no cabe duda, pero valdr&#225; la pena.</p><p>En estos momentos podr&#237;a estar grabando un v&#237;deo o escribiendo un art&#237;culo sobre lo &#250;ltimo que he aprendido sobre Claude o lo &#250;ltimo que he hecho con Lovable, pero aqu&#237; estoy, convocando un evento donde hablar de las oportunidades que va a ofrecer la IA F&#237;sica.</p><div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!TeFS!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff36a3678-547b-43e8-9488-c6fcad3e5981_960x540.jpeg" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!TeFS!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff36a3678-547b-43e8-9488-c6fcad3e5981_960x540.jpeg 424w, https://substackcdn.com/image/fetch/$s_!TeFS!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff36a3678-547b-43e8-9488-c6fcad3e5981_960x540.jpeg 848w, https://substackcdn.com/image/fetch/$s_!TeFS!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff36a3678-547b-43e8-9488-c6fcad3e5981_960x540.jpeg 1272w, https://substackcdn.com/image/fetch/$s_!TeFS!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff36a3678-547b-43e8-9488-c6fcad3e5981_960x540.jpeg 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!TeFS!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff36a3678-547b-43e8-9488-c6fcad3e5981_960x540.jpeg" width="960" height="540" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/f36a3678-547b-43e8-9488-c6fcad3e5981_960x540.jpeg&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:540,&quot;width&quot;:960,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:null,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:null,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:null,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!TeFS!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff36a3678-547b-43e8-9488-c6fcad3e5981_960x540.jpeg 424w, https://substackcdn.com/image/fetch/$s_!TeFS!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff36a3678-547b-43e8-9488-c6fcad3e5981_960x540.jpeg 848w, https://substackcdn.com/image/fetch/$s_!TeFS!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff36a3678-547b-43e8-9488-c6fcad3e5981_960x540.jpeg 1272w, https://substackcdn.com/image/fetch/$s_!TeFS!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff36a3678-547b-43e8-9488-c6fcad3e5981_960x540.jpeg 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p><a href="https://www.youtube.com/live/XKPkbLEutJ8?si=Al8y6CzygmBvVbuq">C&#243;mo subirse a la ola de la IA F&#237;sica</a> ser&#225; un <strong>evento online</strong> que voy a realizar el <strong>25 de marzo de 19 a 20h</strong> y donde voy a compartir las oportunidades profesionales y de negocio que va a ofrecer la rob&#243;tica de prop&#243;sito general y cu&#225;les deben ser los primeros pasos que hay que dar para entrar a formar parte de ello.</p><p>En este evento descubrir&#225;s las <strong>oportunidades</strong> que est&#225;n surgiendo para trabajar, emprender e invertir con el desarrollo de la IA F&#237;sica y la rob&#243;tica de prop&#243;sito general.</p><p>Soy Javier Mart&#237;n, fundador de Integrarobot y me dedico a divulgar la gran oportunidad que se presenta ante nosotros con la IA F&#237;sica, para que cualquier profesional o empresa pueda subirse a esta gran ola, que va a ser a&#250;n mayor que la de la IA Generativa.</p><p>En este webinar podr&#225;s aprender:</p><ul><li><p>Qu&#233; es la <strong>IA F&#237;sica</strong>, qu&#233; son los robots de prop&#243;sito general y en qu&#233; estado de desarrollo se encuentran en estos momentos.</p></li><li><p>Qu&#233; podemos <strong>aprender</strong> de las iniciativas m&#225;s relevantes que se est&#225;n llevando a cabo en este sector.</p></li><li><p><strong>Oportunidades</strong> profesionales y de negocio que van a surgir en el sector de la rob&#243;tica impulsada por IA.</p></li><li><p><strong>Primeros pasos</strong> a dar en este campo, tanto a nivel profesional como en las empresas.</p></li><li><p>Sin olvidarnos de las <strong>sinergias</strong> que surgen como otro tipo de robots con IA como veh&#237;culos aut&#243;nomos, drones, ...</p></li></ul><p>Ha llegado el momento de pasar a la acci&#243;n, que los fuegos artificiales de la IA Generativa no nos impidan ver la enorme oportunidad que supone la IA F&#237;sica. No va a ser tan sencillo como pedirle a un chat que te haga la tarea, habr&#225; que ensuciarse las manos, va a ser duro pero valdr&#225; la pena.</p><blockquote><p>Cuando comenz&#243; el auge de las redes sociales Peter Thiel dijo &#8220;<em>quer&#237;amos coches voladores y nos dieron 140 caracteres</em>&#8221; que no nos pase lo mismo con la IA F&#237;sica, &#8220;<em>quer&#237;amos robots humanoides y nos dieron los chatbots</em>&#8221;</p></blockquote><p>Realmente necesitamos que la IA llegue al mundo f&#237;sico, hay tantos problemas por resolver: personas que sufren lesiones f&#237;sicas por trabajos que les resultan lesivos, ancianos que no tienen compa&#241;&#237;a que les ayude con las tareas rutinarias, mucha gente que llega a casa tras un largo duro de trabajo y tienen que seguir trabajando para mantener su casa en orden, multitud de empresas que no pueden crecer por falta de personal, &#8230; Creo que no es necesario seguir, la sociedad y la econom&#237;a han llegado a un punto donde necesitamos esta tecnolog&#237;a y tenemos que hacer lo posible para que llegue cuanto antes al mercado.</p><p>Los fabricantes de hardware y software est&#225;n haciendo la parte m&#225;s importante, pero ahora nos toca el turno a los dem&#225;s. Hay mil cosas por hacer, empezando por la divulgaci&#243;n que es en lo que me estoy centrando con Integrarobot, pero ser&#225; necesario hacer formaci&#243;n, asesoramiento, entrenamiento de robots, planes de implantaci&#243;n en empresas, venta, alquiler, reparaci&#243;n, creaci&#243;n de aplicaciones, &#8230; y muchas otras cosas que ir&#225;n surgiendo a medida que los robots vayan llegando al mercado.</p><p>Es el momento de pasar a la acci&#243;n, hay que subirse a la ola de la IA F&#237;sica. Nos vemos el 25 de marzo en el evento online. Y si te lanzas a emprender en el sector de la rob&#243;tica espero que lo puedas compartir conmigo para ayudarte con la difusi&#243;n.</p><div><hr></div><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://www.integrarobot.com/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">El curso de robots humanoides ya est&#225; muy avanzado. Si quieres hacerlo a tu ritmo, aumenta el nivel de tu suscripci&#243;n a Integrarobot</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div><div><hr></div><h2>M&#225;s noticias sobre rob&#243;tica e IA F&#237;sica</h2><p>&#129302; <a href="https://nvlabs.github.io/GEAR-SONIC/">GEAR-SONIC</a> es un modelo de control de cuerpo completo para <strong>robots humanoides</strong> que utiliza datos de seguimiento de movimientos y permite a un mismo sistema gobernar caminar, gatear y teleoperaci&#243;n de forma fluid.a</p><p>&#127909;  <a href="https://www.egoscale.ai/">Egoscale</a> es un marco de transferencia humano&#8209;robot que se entrena con m&#225;s de <strong>25000 horas de v&#237;deo egoc&#233;ntrico</strong> y, tras un breve ajuste con datos rob&#243;ticos, mejora hasta un 54 % en tareas de manipulaci&#243;n. Tambi&#233;n demuestra aprendizaje en un solo intento y se ha transferido con &#233;xito a robots como el Unitree G1.</p><p>&#129470; <a href="https://x.com/norma_core_dev/status/2026313566077309247">ElRobot</a> es un brazo rob&#243;tico altamente asequible, completamente impreso en <strong>3D</strong> y <strong>Open Source</strong>. Sus caracter&#237;sticas principales son dise&#241;o completamente impreso en 3D, 7+1 GDL, ideal para investigaci&#243;n en IA f&#237;sica y aprendizaje por imitaci&#243;n, cero hardware personalizado necesario, solo imprime y agrega tu kit de servos.</p><p>&#127466;&#127482; <a href="https://deepmind.google/models/gemini-robotics/accelerator">Deepmind</a> presenta su programa de <strong>aceleraci&#243;n</strong> de tres meses para impulsar startups de rob&#243;tica con alto potencial en sus etapas iniciales mediante los modelos de IA y Gemini Robotics de Google. Su objetivo es transformar nuevos descubrimientos en empresas l&#237;deres en el mercado e impulsar una era de IA f&#237;sica inteligente.</p><p>&#128241; <a href="https://humanoid.guide/samsung-targets-2030-global-factory-shift-with-humanoids/">Samsung</a> present&#243; su visi&#243;n para 2030 incorporando humanoides RB&#8209;Y1 de <strong>Rainbow</strong> Robotics a sus l&#237;neas de producci&#243;n y combin&#225;ndolos con la IA ag&#233;ntica para optimizar la fabricaci&#243;n y la log&#237;stica.</p><p>&#128176; <a href="https://humanoidroboticstechnology.com/news/rlwrld-raises-26m-seed-2-bringing-total-funding-to-41m/">RLWRLD</a> recaud&#243; 26 millones de d&#243;lares en su ronda Seed 2, elevando su financiaci&#243;n total a 41 M$. Est&#225; desarrollando <strong>modelos fundacionales</strong> para robots entrenados directamente en f&#225;bricas y pretende presentar su primer modelo en la primera mitad de 2026</p><p>&#128663; <a href="https://noticias.autocosmos.com.mx/2026/02/27/bmw-comenzo-a-utilizar-robots-humanoides-en-su-planta-de-leipzig">BMW</a> empezar&#225; a usar los humanoides AEON de <strong>Hexagon</strong> Robotics en su planta de Leipzig para ensamblar bater&#237;as de alta tensi&#243;n. Estos robots, probados ya con &#233;xito en Spartanburg, asisten a los empleados en tareas repetitivas y de gran esfuerzo f&#237;sico</p><p>&#128279; <a href="https://www.intrinsic.ai/blog/posts/intrinsic-joins-google-to-accelerate-physical-ai?">Intrinsic</a>, la divisi&#243;n de rob&#243;tica de Alphabet, se integrar&#225; en Google para acelerar la IA f&#237;sica. Su plataforma Flowstate, descrita como el <strong>Android</strong> de los robots, se combinar&#225; con los modelos Gemini y la infraestructura Cloud para facilitar el desarrollo y despliegue de aplicaciones rob&#243;ticas.</p><p>&#128295; <a href="https://www.hyundai.news/es/articles/press-releases/estrategia-de-robotica-con-ia-ces-2026.html">Hyundai</a> present&#243; una estrategia de IA Rob&#243;tica bajo el lema &#8220;Partnering Human Progress&#8221;. La hoja de ruta incluye desplegar el nuevo Atlas de Boston Dynamics en su planta de Alabama en 2028 para tareas de ensamblado, reduciendo el esfuerzo humano; la estrategia se apoya en alianzas con <strong>DeepMind</strong> y <strong>NVIDIA</strong> para crear una cadena de valor de rob&#243;tica y desarrollar servicios de robot as a service.</p><p>&#128241; <a href="https://www.youtube.com/watch?v=_8POu8iwTOc">Honor</a> sorprende en el <strong>Mobile World Congress</strong> de Barcelona al presentar su primer robot humanoide. El robot camin&#243; solo sobre el escenario, mostr&#243; equilibrio din&#225;mico, gestos y un breve baile; aunque no se revelaron detalles t&#233;cnicos ni fecha de comercializaci&#243;n, la demo marca la entrada de un fabricante de m&#243;viles en la IA F&#237;sica.</p><p>&#129489;&#8205;&#128187;  <a href="https://news.lenovo.com/pressroom/press-releases/trusted-ai-powered-business-computing-modular-enterprise-mwc">Lenovo</a> AI Workmate Concept es un <strong>asistente de escritorio</strong> con procesador propio y 64 GB de memoria. Reconoce voz, escritura y gestos, puede escanear y resumir documentos, generar presentaciones y proyectar im&#225;genes sobre la mesa. Le acompa&#241;a el AI Work Companion, un dispositivo tipo reloj de sobremesa para gestionar agendas mediante IA.</p><p>&#128190; <a href="https://encord.com/blog/encord-announces-60-million-series-c/">Encord</a> recauda 60 M$ en una Serie C liderada por Wellington Management, elevando su financiaci&#243;n total a 110 M$. Su plataforma gestiona y anota grandes conjuntos de datos multimodales, clave para entrenar <strong>robots</strong> y <strong>veh&#237;culos aut&#243;nomos</strong>; los datos almacenados crecieron de 1 a m&#225;s de 5 petabytes en un a&#241;o.</p><p>&#128297; <a href="https://cnevpost.com/2026/03/02/xiaomi-deploys-humanoid-robots-ev-factory">Xiaomi</a> despliega su robot humanoide en la <strong>f&#225;brica</strong> de autom&#243;viles. El robot oper&#243; 3 horas de forma aut&#243;noma en un puesto de instalaci&#243;n de tuercas autoperforantes con una tasa de &#233;xito del 90,2 %. Est&#225; impulsado por su modelo VLA de 4,7 mil millones de par&#225;metros y un control h&#237;brido de optimizaci&#243;n y aprendizaje reforzado.</p><p>&#127969; <a href="https://robocasa.ai/">RoboCasa</a> ampl&#237;a su simulador para entrenar <strong>robots generalistas</strong>: incluye 365 tareas cotidianas en 2500 cocinas distintas y ofrece m&#225;s de 600 h de demostraciones humanas y 1600 h de datos sint&#233;ticos. La plataforma, que utiliza IA generativa para crear entornos variados, permite evaluar y entrenar habilidades como coger objetos, abrir puertas o girar mandos</p><p>&#129514; <a href="https://www.zeonsystems.ai/">Zeon Systems</a> es una startup acelerada por Y Combinator que desarrolla sistemas rob&#243;ticos para automatizar <strong>experimentos cient&#237;ficos</strong>. Su plataforma traduce protocolos escritos en lenguaje natural en c&#243;digo que se ejecuta en brazos rob&#243;ticos, detecta el instrumental mediante visi&#243;n por computador y controla el workflow del laboratorio.</p>]]></content:encoded></item><item><title><![CDATA[Retos actuales - Curso Robots Humanoides]]></title><description><![CDATA[A continuaci&#243;n analizamos los retos principales a los que se enfrenta la rob&#243;tica y la IA F&#237;sica durante 2026.]]></description><link>https://www.integrarobot.com/p/retos-actuales-curso-robots-humanoides</link><guid isPermaLink="false">https://www.integrarobot.com/p/retos-actuales-curso-robots-humanoides</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Fri, 27 Feb 2026 09:01:01 GMT</pubDate><enclosure url="https://substack-video.s3.amazonaws.com/video_upload/post/189334204/a250b47a-6dea-4a1c-9a43-e6e1649afd1a/transcoded-04769.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>Si en 2025 el t&#233;rmino de moda en el &#225;mbito de la rob&#243;tica fueron los modelos de visi&#243;n, lenguaje y acci&#243;n, en este a&#241;o no paramos de o&#237;r hablar de los modelos fundacionales del mundo. Estonos da a entender que la rob&#243;tica impulsada por Inteligencia Artificial se enfrenta a&#250;n a retos tecnol&#243;gicos de los cuales depende su futuro.</p><p>Pero adem&#225;s de estos retos&#8230;</p>
      <p>
          <a href="https://www.integrarobot.com/p/retos-actuales-curso-robots-humanoides">
              Read more
          </a>
      </p>
   ]]></content:encoded></item><item><title><![CDATA[Cómo Ginkgo está robotizando la biología]]></title><description><![CDATA[&#191;Se pueden fabricar c&#233;lulas como se fabrican chips?]]></description><link>https://www.integrarobot.com/p/como-ginkgo-esta-robotizando-la-biologia</link><guid isPermaLink="false">https://www.integrarobot.com/p/como-ginkgo-esta-robotizando-la-biologia</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Wed, 25 Feb 2026 11:02:42 GMT</pubDate><enclosure url="https://api.substack.com/feed/podcast/189105796/a5ed12086ffe999e2c4699d1db2ff9c8.mp3" length="0" type="audio/mpeg"/><content:encoded><![CDATA[<p>Hoy quiero hablarte de una empresa con una historia trepidante. Se trata de <a href="https://www.ginkgo.bio/">Ginko Bioworks</a>, que tiene como objetivo convertirse en <em>la TSMC de la biotecnolog&#237;a</em>, para lo cual, en lugar de fabricar chips programables, a lo que se dedica es a fabricar c&#233;lulas programadas para realizar una nueva funci&#243;n espec&#237;fica.</p><p>De esta forma, Ginko trabaja en el &#225;mbito de la <strong>biolog&#237;a sint&#233;tica</strong>: dise&#241;ar c&#233;lulas que cumplan una funci&#243;n concreta, como bacterias optimizadas para producir prote&#237;nas terap&#233;uticas, levaduras modificadas para fabricar mol&#233;culas complejas usadas en f&#225;rmacos y c&#233;lulas dise&#241;adas para producir enzimas espec&#237;ficas usadas en vacunas o terapias.</p><p>Como te dec&#237;a la historia de Ginko es trepidante, pero a la vez bastante pol&#233;mica, y no s&#243;lo por lo ambiciosa que es su misi&#243;n, sino por los altibajos que ha tenido desde su fundaci&#243;n como una spin-off del MIT en 2028.</p><p>Por ejemplo, entre sus principales hitos destacan, empezando por el final, en <strong>2026</strong> la colaboraci&#243;n con <a href="https://openai.com/es-ES/index/gpt-5-lowers-protein-synthesis-cost/">OpenAI</a> para usar la inteligencia de <strong>GPT-5</strong> en su laboratorio aut&#243;nomo, de modo que pueda proponer experimentos, ejecutarlos a gran escala, aprender de los resultados y decidir qu&#233; probar a continuaci&#243;n, gracias a lo cual el coste de producci&#243;n de prote&#237;nas se puede reducir en un 40%.</p><p>Y si nos remontamos mucho m&#225;s encontraremos noticias tan interesantes como que en <strong>2014</strong> Ginko fue la primera empresa biotecnol&#243;gica que particip&#243; en el prestigioso programa de aceleraci&#243;n de startups <strong>Y Combinator</strong>, en el cual sobre todo participan proyectos digitales, lo cual denota que desde hace mucho tiempo la empresa tiene el objetivo de unir la biolog&#237;a con los bits.</p><p>M&#225;s adelante, en <strong>2018</strong>, la empresa se convirti&#243; en unicornio al alcanzar la valoraci&#243;n de <strong>1.000 millones de d&#243;lares</strong> en una de sus rondas de inversi&#243;n. En <strong>2019</strong> pasa a valer <strong>4.200 millones</strong> y en <strong>2021</strong> sale a bolsa a trav&#233;s de la fusi&#243;n con una SPAC con una valoraci&#243;n de unos <strong>20.000 millones de d&#243;lares</strong>, lo cual la posiciona como un &#233;xito vertiginoso, al menos desde el punto de vista financiero.</p><p>Gracias a ese &#233;xito, entre 2017 y 2022 la empresa ha adquirido 7 startups incorporando sus capacidades e innovaciones m&#225;s importantes en materia de biotecnolog&#237;a.</p><p>Pero aqu&#237; es donde las cosas empiezan a torcerse, porque pocos meses despu&#233;s de empezar a cotizar en bolsa, la empresa es acusada de ser una estafa porque contabilizaba como ingresos los contratos que ten&#237;a con las startups en las que invert&#237;a, lo cual significaba una parte importante de su volumen de negocio.</p><p>Entonces es cuando la empresa comienza su particular calvario, porque su cotizaci&#243;n se desploma m&#225;s de un 95%, teniendo actualmente una valoraci&#243;n de unos 500 millones de d&#243;lares.</p><p>Pero bueno, aqu&#237; no hemos venido a hablar de inversiones sino de tecnolog&#237;a y esto es lo que vamos a ver a continuaci&#243;n, porque tras depurar sus problemas financieros, la empresa no ha parado de llegar a acuerdos para impulsar su estrategia de construcci&#243;n de laboratorios robotizados y si nos fijamos en las colaboraciones que tiene con la industria farmac&#233;utica, parece tener muy claro que lo importante es seguir con su misi&#243;n de convertirse en el TSMC de la biotecnolog&#237;a.</p><ul><li><p>Ginkgo y <strong>Bayer</strong> trabajan en el desarrollo de soluciones biol&#243;gicas para agricultura (nitrogen-fixing microbes y tecnolog&#237;as agr&#237;colas biol&#243;gicas).</p></li><li><p>Ginkgo y <strong>Pfizer</strong> mantienen un acuerdo de colaboraci&#243;n centrado en el descubrimiento de posibles medicamentos basados en RNA.</p></li><li><p>Ginkgo y <strong>Boehringer Ingelheim</strong> trabajan con una base de datos metagen&#243;mica para acelerar el descubrimiento de nuevas mol&#233;culas terap&#233;uticas.</p></li><li><p>Ginkgo y  <strong>Merck</strong> tienen un acuerdo para dise&#241;ar enzimas para su uso como biocatalizadores en los esfuerzos de fabricaci&#243;n de ingredientes farmac&#233;uticos.</p></li><li><p>Ginkgo y <strong>Solvay</strong> trabajan en biopol&#237;meros sostenibles, expandiendo capacidades de R&amp;I en qu&#237;mica y biolog&#237;a sint&#233;tica.</p></li></ul><p>Y vamos ya con lo importante, los laboratorios rob&#243;ticos, qu&#233; son y para qu&#233; se utilizan:</p><p>Cuando hablamos de los <strong>laboratorios rob&#243;ticos</strong> de Ginkgo nos referimos a una infraestructura automatizada donde la biolog&#237;a se trata como un proceso industrial programable y donde los <strong>brazos rob&#243;ticos</strong> hacen la mayor parte del trabajo manual que hasta ahora hac&#237;an las personas.</p><p>Un laboratorio rob&#243;tico es, en esencia, una f&#225;brica de experimentos.</p><p>Su funci&#243;n no es ejecutar miles o millones de variaciones de un dise&#241;o biol&#243;gico de forma sistem&#225;tica, medir los resultados y alimentar esos datos a modelos computacionales que deciden qu&#233; probar a continuaci&#243;n.</p><p>El esquema que se sigue para alimentar este proceso es el siguiente:</p><ul><li><p>Dise&#241;o digital</p></li><li><p>Construcci&#243;n automatizada</p></li><li><p>Prueba masiva</p></li><li><p>Medici&#243;n estandarizada</p></li><li><p>Aprendizaje algor&#237;tmico</p></li></ul><p>Y el  ciclo se repite continuamente.</p><p>Si lo vemos desde el prisma de la rob&#243;tica, se trata de un sistema cerrado de percepci&#243;n decisi&#243;n, y acci&#243;n, aplicado a c&#233;lulas en lugar de a motores el&#233;ctricos.</p><p>Por lo tanto, los laboratorios de Ginko son plataformas automatizadas que manipulan sustancias, cultivan microorganismos, secuencian resultados y generan datos estructurados. Donde todo est&#225; dise&#241;ado para minimizar la intervenci&#243;n humana y maximizar la reproducibilidad, con el objetivo de poder escalar el proceso.</p><p>En rob&#243;tica hablamos mucho de datos, simulaci&#243;n, modelos de mundo y entrenamiento a gran escala. Ginkgo est&#225; intentando hacer algo equivalente en biolog&#237;a: convertir cada experimento en datos reutilizables que mejoran el siguiente.</p><p>De esta forma, si eres capaz de convertir la biolog&#237;a en ingenier&#237;a iterativa apoyada en automatizaci&#243;n y modelos de IA, la velocidad de descubrimiento aumenta exponencialmente.</p><p>En definitiva, Ginko ofrece a las empresas biotecnol&#243;gicas y farmac&#233;uticas la infraestructura de hardware y software necesaria para desarrollar sus productos, de manera que estas empresas s&#243;lo tienen que dedicarse a dise&#241;arlos, lo mismo que hace NVIDIA que dise&#241;a las GPU que luego fabrica TSMC.</p><p>Sin duda, una empresa que no puede dejarnos indiferentes, por lo ambiciosa que es su misi&#243;n pero por lo controvertida que ha resultado su trayectoria hasta el momento.</p><p>Estaremos atentos a su evoluci&#243;n porque lo que pretende conseguir podr&#237;a cambiar el mundo o quedarse s&#243;lo en una analog&#237;a ingeniosa: <em>el TSMC de la biolog&#237;a</em>.</p><div><hr></div><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://www.integrarobot.com/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">&#191;Te gustar&#237;a dedicarte a la rob&#243;tica pero no sabes por d&#243;nde empezar? &#218;nete a la comunidad pioneros robots y comparte tus inquietudes con otros apasionados de los robots.</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div><div><hr></div><h2>M&#225;s noticias sobre IA F&#237;sica y rob&#243;tica</h2><p>&#127760; <a href="https://www.worldlabs.ai/blog/funding-2026">World Labs</a> capta mil millones de d&#243;lares en nueva financiaci&#243;n provenientes de <strong>AMD</strong>, <strong>Autodesk</strong>, <strong>NVIDIA</strong> y otros socios financieros, para impulsar el desarrollo que est&#225; haciendo de los modelos del mundo, la pieza fundamental para el entrenamiento de robots.</p><p>&#128663; <a href="https://www.agilityrobotics.com/content/agility-robotics-announces-commercial-agreement-with-toyota-motor-manufacturing-canada">Toyota</a> llega a un acuerdo comercial con <strong>Agility</strong>. Tras un exitoso programa piloto, el fabricante de coches planea implementar el robot Digit en sus instalaciones para apoyar a sus empleados en las operaciones de fabricaci&#243;n, cadena de suministro y log&#237;stica.</p><p>&#128302; <a href="https://home.barclays/news/press-releases/20260/01/barclays-research-finds-humanoid-robotics-on-track-to-become-a--/">Barclays</a> presenta un informe en el que estima que la rob&#243;tica humanoide se convertir&#225; en un mercado de <strong>200.000 millones de d&#243;lares en 2035</strong> y donde expone c&#243;mo los avances en IA, actuadores y bater&#237;as han reducido los costos de producci&#243;n 30 veces en la &#250;ltima d&#233;cada, allanando el camino para su adopci&#243;n comercial</p><p>&#128506;&#65039; <a href="https://x.com/drjimfan/status/2024895359236051274?s=46">DreamDojo</a> es el nuevo desarrollo de <strong>NVIDIA</strong> en el &#225;mbito de los modelos del mundo para la IA F&#237;sica. Un modelo de mundo de c&#243;digo abierto e interactivo que toma los controles motores de robots y genera el futuro en p&#237;xeles.</p><p>&#128064; <a href="https://technode.com/2026/02/21/unitree-ceo-says-robot-capability-comparable-to-10-year-old-large-scale-use-3-5-years-away">Wang Xingxing</a>, fundador de <strong>Unitree</strong> dice que el nivel actual de la tecnolog&#237;a rob&#243;tica es comparable al de un ni&#241;o de 10 a&#241;os, y a&#241;ade que la adopci&#243;n comercial a gran escala a&#250;n est&#225; a tres o cinco a&#241;os de distancia, y no m&#225;s de una d&#233;cada como m&#225;ximo.</p><p>&#128187; <a href="https://www.ycombinator.com/launches/PVc-sureform-turning-physical-expertise-into-training-data-for-world-models-and-robotics">Sureform</a> es una nueva startup apoyada por <strong>Y Combinator</strong> que se dedica a transformar la experiencia f&#237;sica en datos de entrenamiento para modelos mundiales y rob&#243;tica, contribuyendo a construir un futuro donde los robots puedan realizar tareas especializadas de forma fiable.</p><p>&#128268;  <a href="https://www.opencastor.com/">OpenCastor</a> es el adaptador universal de c&#243;digo abierto para <strong>software</strong> para robots. Su objetivo es normalizar cada proveedor de IA en una interfaz est&#225;ndar y que pueda ser asignada a cualquier hardware rob&#243;tico mediante un &#250;nico archivo de configuraci&#243;n YAML.</p><p>&#129470;<a href="https://techcrunch.com/2026/02/18/amazon-halts-blue-jay-robotics-project-after-less-than-six-months/">Amazon</a> paraliza el proyecto de rob&#243;tica <strong>Blue Jay</strong> tras s&#243;lo seis meses de funcionamiento. La empresa planea utilizar la tecnolog&#237;a central de este robot multibrazo dise&#241;ado para clasificar y mover paquetes para otros programas de manipulaci&#243;n rob&#243;tica.</p><p>&#128664; <a href="https://x.com/mimicrobotics/status/2026208548481286154?s=46">Mimic</a> trabaja con <strong>Audi</strong> para aplicar rob&#243;tica impulsada por IA a la producci&#243;n industrial. Su modelo de extremo a extremo de p&#237;xel a acci&#243;n, ejecut&#225;ndose en la plataforma bi-manual, es capaz de realizar una tarea compleja de inserci&#243;n diestra y de horizonte largo.</p>]]></content:encoded></item><item><title><![CDATA[Unitree G1 el robot más vendido del mercado ahora a la venta por 13.500 dólares]]></title><description><![CDATA[Conoce en detalle las caracter&#237;sticas del robot humanoide m&#225;s vendido y m&#225;s popular]]></description><link>https://www.integrarobot.com/p/unitree-g1-el-robot-mas-vendido-del</link><guid isPermaLink="false">https://www.integrarobot.com/p/unitree-g1-el-robot-mas-vendido-del</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Mon, 23 Feb 2026 11:05:17 GMT</pubDate><enclosure url="https://api.substack.com/feed/podcast/188883594/15e03c43686c63815a0ce235be2ec516.mp3" length="0" type="audio/mpeg"/><content:encoded><![CDATA[<p>Que la empresa m&#225;s valiosa del mundo, una de las m&#225;s innovadoras y seguramente la que m&#225;s beneficio ha obtenido hasta ahora de la IA, use el robot humanoide G1 de <strong>Unitree</strong> para probar sus &#250;ltimos desarrollos de modelos del mundo, como <a href="https://x.com/DrJimFan/status/2024895359236051274">DreamDojo</a>, tiene mucho que mostrarnos.</p><p><strong>NVIDIA</strong> podr&#237;a habernos mostrado los resultados de su trabajo sobre cualquier robot de las empresas de las que es socio inversor, como <strong>Figure</strong> y <strong>Agility</strong>, pero ha decidido hacerlo con el robot m&#225;s vendido del mercado y esto no debe ser una casualidad, sino que nos est&#225; dando a entender que en estos momentos el cuello de botella para la llegada masiva de los robots humanoides no es cuesti&#243;n de hardware sino de software.</p><p>Porque una cosa hay que reconocer, tecnol&#243;gicamente hablando el G1 de Unitree seguramente no est&#233; a la altura de Atlas de Boston o de Optimus de Tesla, sin embargo es el robot que usan la mayor&#237;a de laboratorios que trabajan en IA F&#237;sica. Es una cuesti&#243;n de accesibilidad y en eso la empresa dirigida por Xingxing Wang es imbatible.</p><p>A&#241;adamos a este argumento que Unitree acaba de bajar el precio del robot G1 de 16.000 d&#243;lares a <strong>13.500 d&#243;lares</strong>, lo cual est&#225; poniendo de manifiesto que la empresa busca escala y continuar siendo la preferida de los laboratorios de investigaci&#243;n que le est&#225;n haciendo el trabajo gratis con la ingente cantidad de desarrollos open source de IA F&#237;sica que se van publicando y que en Integrarobot recogemos en la <a href="https://docs.google.com/spreadsheets/d/1Cg8FNh8ZeMopfQTM5oCF_E87Jxe27z8R54a8XRjKlxQ/edit?usp=sharing">bbdd</a> de robots humanoides.</p><p>Pero vayamos al grano, porque lo que hoy toca es analizar el estado de desarrollo de los robots de Unitree y lo primero que tenemos que decir es que el G1 que cuesta 13.500 d&#243;lares no permite meterle IA de terceros y que la que versi&#243;n Edu, que s&#237; que lo permite, ya no est&#225; a la venta, por lo que se anticipan cambios importantes antes de la salida a bolsa de la empresa.</p><p>Tambi&#233;n aqu&#237; hay que a&#241;adir que la empresa por fin nos ha mostrado c&#243;mo funciona su sistema de IA al que ha denominado <a href="https://www.integrarobot.com/p/unifolm-x1-0-ai-es-lo-que-llevo-un">UnifoLM-X1-0</a>, lo cual podr&#237;a darnos a entender que quiere reservarse cierto privilegio al respecto de dotar a los robots con su propia IA, de maner que otros competidores en materia de software no puedan aprovecharse tanto de lo f&#225;cil que resulta acceder a un hardware sobre el que poner a prueba sus modelos.</p><h2>&#191;Qu&#233; sabemos ahora del robot G1 de Unitree?</h2><div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!r4eN!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F90aab64d-4344-4b4d-99fb-2b319b09f289_1536x1024.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!r4eN!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F90aab64d-4344-4b4d-99fb-2b319b09f289_1536x1024.png 424w, https://substackcdn.com/image/fetch/$s_!r4eN!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F90aab64d-4344-4b4d-99fb-2b319b09f289_1536x1024.png 848w, https://substackcdn.com/image/fetch/$s_!r4eN!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F90aab64d-4344-4b4d-99fb-2b319b09f289_1536x1024.png 1272w, https://substackcdn.com/image/fetch/$s_!r4eN!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F90aab64d-4344-4b4d-99fb-2b319b09f289_1536x1024.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!r4eN!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F90aab64d-4344-4b4d-99fb-2b319b09f289_1536x1024.png" width="1456" height="971" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/90aab64d-4344-4b4d-99fb-2b319b09f289_1536x1024.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:971,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:2308703,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:&quot;https://www.integrarobot.com/i/188883594?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F90aab64d-4344-4b4d-99fb-2b319b09f289_1536x1024.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!r4eN!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F90aab64d-4344-4b4d-99fb-2b319b09f289_1536x1024.png 424w, https://substackcdn.com/image/fetch/$s_!r4eN!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F90aab64d-4344-4b4d-99fb-2b319b09f289_1536x1024.png 848w, https://substackcdn.com/image/fetch/$s_!r4eN!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F90aab64d-4344-4b4d-99fb-2b319b09f289_1536x1024.png 1272w, https://substackcdn.com/image/fetch/$s_!r4eN!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F90aab64d-4344-4b4d-99fb-2b319b09f289_1536x1024.png 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><h2>Aplicaciones</h2><ul><li><p>Investigaci&#243;n en rob&#243;tica humanoide</p></li><li><p>Desarrollo de algoritmos de locomoci&#243;n b&#237;peda</p></li><li><p>Manipulaci&#243;n ligera en entornos controlados</p></li><li><p>Educaci&#243;n avanzada en rob&#243;tica e IA</p></li><li><p>Plataforma de experimentaci&#243;n para control y aprendizaje por refuerzo</p></li><li><p>Demostraciones comerciales y tecnol&#243;gicas</p></li></ul><h2>Aspectos clave</h2><ul><li><p>Humanoide b&#237;pedo ligero orientado a I+D</p></li><li><p>Alta densidad de grados de libertad</p></li><li><p>Arquitectura modular y actualizable</p></li><li><p>Manos antropom&#243;rficas opcionales</p></li><li><p>Enfoque en movilidad din&#225;mica y estabilidad</p></li><li><p>Precio significativamente inferior a competidores occidentales</p></li></ul><h2>Especificaciones principales</h2><ul><li><p>Altura aproximada: 130 cm</p></li><li><p>Peso aproximado: 35 kg</p></li><li><p>Grados de libertad totales: 23&#8211;43 DoF seg&#250;n configuraci&#243;n</p></li><li><p>Grados de libertad por brazo: hasta 7 DoF</p></li><li><p>Velocidad m&#225;xima: ~2 m/s</p></li><li><p>Carga &#250;til: ~2 kg por brazo; el modelo EDU sube a ~3 kg</p></li><li><p>Autonom&#237;a: ~2 horas</p></li></ul><h2>Construcci&#243;n</h2><ul><li><p>Estructura ligera de aleaciones met&#225;licas</p></li><li><p>Dise&#241;o compacto optimizado para equilibrio din&#225;mico</p></li><li><p>Centro de gravedad bajo para mayor estabilidad</p></li><li><p>Bater&#237;a integrada en el torso</p></li></ul><h2>Computaci&#243;n</h2><ul><li><p>Unidad de c&#243;mputo integrada de alto rendimiento</p></li><li><p>La versi&#243;n EDU incorpora NVIDIA Jetson Orin NX de 16 GB con 100 TOPS</p></li><li><p>Compatible con desarrollo en ROS</p></li><li><p>Arquitectura abierta para investigaci&#243;n</p></li></ul><h2>Sens&#243;rica</h2><ul><li><p>C&#225;maras de profundidad 3D</p></li><li><p>LiDAR 3D de 360&#176; Livox MID-360 y Intel RealSense D435i</p></li><li><p>C&#225;mara RGB frontal</p></li><li><p>IMU interna</p></li><li><p>Sensores de posici&#243;n en articulaciones</p></li><li><p>Opcional: sensores t&#225;ctiles en manos</p></li></ul><h2>Actuaci&#243;n</h2><ul><li><p>Actuadores el&#233;ctricos propietarios</p></li><li><p>Control de par en articulaciones</p></li><li><p>Alta precisi&#243;n en locomoci&#243;n din&#225;mica</p></li><li><p>Dise&#241;o optimizado para eficiencia energ&#233;tica</p></li></ul><h2>Alimentaci&#243;n</h2><ul><li><p>Bater&#237;a extra&#237;ble de litio</p></li><li><p>Sistema de gesti&#243;n energ&#233;tica integrado</p></li><li><p>Autonom&#237;a aproximada de 2 horas</p></li><li><p>Carga r&#225;pida</p></li></ul><h2>Software</h2><ul><li><p>Compatibilidad con ROS</p></li><li><p>SDK de desarrollo propio</p></li><li><p>Soporte para aprendizaje por refuerzo</p></li><li><p>Control remoto y teleoperaci&#243;n</p></li><li><p>Entorno de simulaci&#243;n para entrenamiento</p></li></ul><h2>Seguridad</h2><ul><li><p>Modo de parada de emergencia</p></li><li><p>Control de estabilidad en tiempo real</p></li><li><p>Supervisi&#243;n remota</p></li><li><p>Uso recomendado en entornos controlados</p></li></ul><h2>Producci&#243;n y econom&#237;a</h2><ul><li><p>Producci&#243;n comercial iniciada</p></li><li><p>Enfoque en mercado de investigaci&#243;n y desarrolladores</p></li><li><p>Escalado progresivo</p></li><li><p>Estrategia de democratizaci&#243;n del acceso a humanoides</p></li></ul><h2>Coste</h2><ul><li><p>Precio aproximado base: desde 13.500 USD</p></li><li><p>Configuraciones avanzadas con coste superior seg&#250;n hardware, sensores y manos</p></li></ul><div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!Nvu8!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fe1a56491-88d8-4c82-b933-d5f7054581df_7290x3545.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!Nvu8!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fe1a56491-88d8-4c82-b933-d5f7054581df_7290x3545.png 424w, https://substackcdn.com/image/fetch/$s_!Nvu8!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fe1a56491-88d8-4c82-b933-d5f7054581df_7290x3545.png 848w, https://substackcdn.com/image/fetch/$s_!Nvu8!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fe1a56491-88d8-4c82-b933-d5f7054581df_7290x3545.png 1272w, https://substackcdn.com/image/fetch/$s_!Nvu8!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fe1a56491-88d8-4c82-b933-d5f7054581df_7290x3545.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!Nvu8!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fe1a56491-88d8-4c82-b933-d5f7054581df_7290x3545.png" width="1456" height="708" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/e1a56491-88d8-4c82-b933-d5f7054581df_7290x3545.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:708,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:1739506,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:true,&quot;topImage&quot;:false,&quot;internalRedirect&quot;:&quot;https://www.integrarobot.com/i/188883594?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fe1a56491-88d8-4c82-b933-d5f7054581df_7290x3545.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!Nvu8!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fe1a56491-88d8-4c82-b933-d5f7054581df_7290x3545.png 424w, https://substackcdn.com/image/fetch/$s_!Nvu8!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fe1a56491-88d8-4c82-b933-d5f7054581df_7290x3545.png 848w, https://substackcdn.com/image/fetch/$s_!Nvu8!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fe1a56491-88d8-4c82-b933-d5f7054581df_7290x3545.png 1272w, https://substackcdn.com/image/fetch/$s_!Nvu8!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fe1a56491-88d8-4c82-b933-d5f7054581df_7290x3545.png 1456w" sizes="100vw" loading="lazy"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><div><hr></div><p>&#191;Qu&#233; te parece? &#191;Crees que Unitree mantendr&#225; la estrategia de fabricaci&#243;n de robots muy econ&#243;micos o buscar&#225; subir el nivel integrando su propia IA?</p>]]></content:encoded></item><item><title><![CDATA[Estado del arte - Curso Robots Humanoides]]></title><description><![CDATA[A estas alturas del curso vale la pena hacer una foto de c&#243;mo se encuentra el desarrollo de los robots y la IA F&#237;sica.]]></description><link>https://www.integrarobot.com/p/estado-del-arte-curso-robots-humanoides</link><guid isPermaLink="false">https://www.integrarobot.com/p/estado-del-arte-curso-robots-humanoides</guid><dc:creator><![CDATA[Javier Martín]]></dc:creator><pubDate>Fri, 20 Feb 2026 11:53:23 GMT</pubDate><enclosure url="https://substack-video.s3.amazonaws.com/video_upload/post/188603772/d874929f-ef2d-4b57-a326-e3d753f440c6/transcoded-07083.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>El desarrollo de <strong>robots humanoides</strong> est&#225; dejando de ser un campo experimental centrado en los laboratorios a convertirse en una nueva industria con una fuerte tracci&#243;n inversora y el despliegue precomercial. La tendencia dominante es la convergencia entre inteligencia artificial generativa y rob&#243;tica, lo que venimos   denominando <strong>IA F&#237;sica</strong>. En este marco&#8230;</p>
      <p>
          <a href="https://www.integrarobot.com/p/estado-del-arte-curso-robots-humanoides">
              Read more
          </a>
      </p>
   ]]></content:encoded></item></channel></rss>