Este es CLOiD, el robot de LG que te hace la colada y te prepara el desayuno

​​

El nuevo mantra de LG se llama Zero Labor Home, Hogar sin trabajo doméstico, su nueva propuesta de IA física en forma de robot mayordomo LG CLOiD.

Llevamos años viendo robot humanoides, pero ninguno hace cosas prácticas, y están enfocados a las empresas. LG CLOiD es un robot para el hogar que prepara el desayuno, hace la colada, pliega la ropa, y mantiene una conversación interesante gracias a la IA generativa.

No es un concepto visual: LG lo va a traer a CES 2026, en donde llevará a cabo alguna de las tareas mencionadas.

LG CLOiD, un mayordomo robótico para tu hogar

Este robot humanoide para tareas domésticas consta de una unidad principal, un torso con dos brazos articulados y una base con ruedas equipada con navegación autónoma. El torso puede inclinarse para ajustar su altura, lo que permite al robot recoger objetos a partir de la altura de las rodillas.

Cada brazo tiene siete grados de libertad, la misma movilidad que un brazo humano. El hombro, el codo y la muñeca permiten movimientos hacia delante, hacia atrás, rotatorios y laterales, mientras que cada mano incluye cinco dedos accionados de forma independiente para una manipulación precisa.

El cerebro de CLOiD funciona como un hub para el hogar. Es capaz de integrarse en el ecosistema ThinQ and ThinQ ON para controlar la luz, el lavavajillas, y otros electrodomésticos. Puede encender y apagar el horno, controlar el aire acondicionado, o poner en marcha la lavadora.

La cabeza poee una pantalla, altavoces, cámaras y varios sensores para hablar mediante IA generativa, como un chatbot. Se comunica con los humanos mediante voz y expresiones faciales que se generan en la pantalla.

LG CLOiD utiliza lo que ahora se llama inteligencia artificial física, es decir, IA que no da respuestas o genera contenido, como ChatGPT, sino que actúa sobre el entorno físico, manipulándolo. Por ejemplo, abrir una puerta o poner en marcha el microondas.

Para ello emplea dos modelos de IA. Por un lado, tenemos el Modelo de Lenguaje Visual (VLM), que convierte imágenes y vídeos en comprensión estructurada basada en el lenguaje. Y el Modelo de Acción Visual (VLA), que traduce entradas visuales y verbales en acciones físicas.

Con la IA física, un robot puede abrir puertas o recoger objetos que nunca ha visto, porque reconoce que es una puerta, o un objeto que puede llevar.

En CES 2026, CLOiD hará una demostración en donde saca la leche de la nevera y coloca un cruasán en el horno, para preparar el desayuno. Después, cuando la familia se marche, pondrá la lavadora y plegará la ropa.

Es lo que todo llevamos soñando desde niños, pero aún no conocemos el dato más importante: ¿Cuánto costará?

 

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *