¿Por qué ahora? así entraron los LLM en el cerebro de los robots
¿Quizás te hayas preguntado por qué ahora se habla de robots humanoides? y si no lo has hecho aún, intuyo que en 2025 se va a hablar bastante de ello.
Si te has hecho esta pregunta, como yo lo he hecho en los últimos meses, puede haber una respuesta relativamente sencilla, ahora los robots pueden ser inteligentes, al menos como aproximación, mucho más de lo que lo eran hace pocos años. La clave ha sido la integración con los grandes modelos de lenguaje (LLM) que les han aportado capacidades que antes resultaban imposibles con los sistemas de programación anteriores a la aparición de la Inteligencia Artificial Generativa.
Los LLM ha aportado a los robots la capacidad de:
Entender el lenguaje
Comunicarse naturalmente
Reconocer imágenes
Interpretar el entorno
Tomar decisiones
Los robots fabricados previamente a la aparición de esta tecnología podían haber sido diseñados con la estructura corporal de un humano, pero realmente era imposible que actuaran como tal con los objetos o personas que les rodeaban porque no tenían las habilidades cognitivas para hacerlo. Pero ahora esto ha cambiado y por eso decimos que pueden ser inteligentes.
Del mismo modo que cuando usamos un asistente basado en Inteligencia Artificial, como ChatGPT, notamos que hay cierta inteligencia en las respuestas que nos aporta, cuando esta capacidad la integramos en el software de un robot lo que ocurre es que va a entender mucho mejor nuestras instrucciones y cuando las lleve a cabo, va a poder ejecutarlas de una manera más parecida a como esperamos que lo haga un humano.
La capacidad de pensar paso a paso, o de trocear una tarea otras más pequeñas para poder ejecutarlas de manera más precisa es otra de las grandes aportaciones de la GenAI al desarrollo futuro de los robots humanoides. De ahí que hoy estemos dando comienzo a esta newsletter y en general al proyecto Integrarobots, que tiene como objetivo ayudar a las empresas a integrar los robots con Inteligencia Artificial en su proceso productivo.
Ni que decir tiene que otra de las razones por la que estemos poniendo en marcha ahora esta iniciativa es que la empresa Tesla, con Elon Musk a la cabeza, ha dejado muy claro que su prioridad a largo plazo es el desarrollo de los robots humanoides, para lo cual ha presentado el Robot Optimus, que será uno de los protagonistas habituales de esta newsletter. Si se dice que no hay que apostar contra Elon, nosotros al contrario, nos vamos a sumar por completo a la tendencia que ha iniciado junto con algunas startups de las que os iremos hablando poco a poco por aquí.
Así que ya sabes, si quieres estar el corriente de todo lo que se cuece en el ámbito de la robótica humanoide y de todo tipo de iniciativas de robótica en general, ahora es el momento de suscribirse a Integrarobots.
Nvidia lo corrobora
No todos los días tiene uno de la oportunidad de sentir con total nitidez que vive en el futuro. Y por esto hay que dar las gracias a la empresa NVIDIA por hablarnos de ello de forma tan clara y sobre todo por estar desarrollando las herramientas que harán posible que los robots humanoides sean una realidad palpable en poco tiempo.
Así esta semana hemos podido ser testigos de la puesta de largo oficial de la robótica humanoide en la presentación realizada por NVIDIA en el evento CES2025, donde ha quedado claro que la estrategia de la empresa más importante del mundo en lo que a Inteligencia Artificial se refiere, plantea que la siguiente fase de desarrollo de esta tecnología, tras la GenAI y los Agentes Inteligentes pasa por llevar todos estos desarrollos al mundo físico a través de la conducción autónoma y los robots de propósito general.
“Todo empezó con la IA de percepción, que entendía imágenes, palabras y sonidos. Luego, con la IA generativa, que creaba texto, imágenes y sonidos. Ahora, estamos entrando en la era de la IA física, que puede proceder, razonar, planificar y actuar”. Jensen Huang
Para ello la empresa ha presentado varios productos que van a ayudar a otras empresas a hacer realidad esta predicción
NVIDIA Cosmos: impulsa la IA física con nuevos modelos y canales de procesamiento de datos de video para robots, vehículos autónomos e Inteligencia Artificial de visión.
NVIDIA Isaac: plataforma de desarrollo de robots de IA como robots móviles autónomos (AMR), brazos y manipuladores y humanoides que consta de bibliotecas aceleradas por el software CUDA.
NVIDIA Ominverse: ofrece una API, SDK y servicios que permiten a los desarrolladores integrar tecnologías de renderizado e IA física generativa en herramientas de software y flujos de trabajo de simulación para casos de uso industriales y robóticos.
Como te puedes imaginar, ahora todos los desarrolladores de robots inteligentes están analizando estas herramientas y pronto las integrarán en sus productos, por lo que estamos ante una nueva palanca para que los robots humanoides sean una realidad en muy poco tiempo en fábricas, comercios y hogares.
“El momento ChatGPT para la robótica general está a la vuelta de la esquina”.
Jensen Huang
Qué queréis que os diga, a mi todo esto me parece que va a tener un impacto tan grande que no podemos quedarnos esperando a que suceda, hay que ponerse ya mismo a trabajar en ello.
Más noticias destacadas sobre robótica e Inteligencia Artificial
A continuación compartimos las noticias destacadas del sector
📱Samsung Electronics será el mayor accionista de Rainbow Robotics con el objetivo de acelerar el desarrollo de los robots del futuro. Ahora que Apple ha tirado la toalla con el coche autónomo, ¿veremos pronto noticias de su interés por la robótica?
🤖 OpenAI está muy tentado por la robótica humanoide. Además de invertir en las startups de robótica X1 y Figure hay indicios de que podría estar trabajando en su propio robot humanoide, lo cual sería como si ChatPGT se encarnara.
🈵 Fourier, la startup china de fabricación de robots humanoides ha recaudado más de 100 millones de dólares en una ronda de financiación liderada por el fondo Prosperity7. Pronto hablaremos de la gran apuesta del país asiático por la robótica.
Wow! So thanks to LLMs, robots can finally aspire to overcome the barrier of "no cognitive abilities" and relate to us by performing tasks that humans can do. This is possible because we solve problems by dividing them into smaller parts and finding solutions for each one.
it´s also great that LLMs and GenAl are key to enabling robots to think this way when facing similar day-to-day problems. With impressive initiatives like Tesla's Optimus Robot or NVIDIA announcing a wide range of AI-based products, it´s hard not to see this as a new "industrial revolution".
Nice article, really spots on!
¡Qué ganas de leer esta nueva newsletter!