MADRID, 7 Ene. (Portaltic/EP) -
Nvidia ha anunciado nuevos modelos de IA generativa, incluida la nueva plataforma Cosmos World Foundation, así como los modelos Nvidia Edify SimpReady y el 'blueprint' Omniverse Mega Factory, que amplían la integración de Nvidia Omniverse en aplicaciones de IA física en el mundo real, como puede ser la robótica o los vehículos autónomos.
Omniverse es una herramienta de Nvidia que se utiliza para simulación del mundo virtual y para el desarrollo en 3D. Así, la creación de mundos 3D para la simulación de IA física requiere construir el mundo en cuestión, etiquetarlo con atributos físicos y hacerlo fotorrealista, acelerando cada paso de la mano de modelos de IA generativos.
Los desarrolladores utilizan microservicios como USD Code y USD Search nvidia NIM, sin embargo, la tecnológica ha presentado en el marco del CES 2025 su nuevo modelo de IA generativo Nvidia Edify SimReady, que puede etiquetar automáticamente activos 3D existentes con atributos como física o materiales.
Según ha explicado en un comunicado en su web, esto permite a los desarrolladores procesar alrededor de 1.000 objetos 3D en minutos, en lugar de realizar todo el proceso de forma manual, lo que podría conllevar más de 40 horas, según Nvidia. Para ello, se basa en una arquitectura multimodal que desarrolla modelos visuales de IA generativos para imágenes 3D, 360 HDRi, materiales de renderizado basado en la física y vídeos.
NVIDIA COSMOS WORLD FOUNDATION
Junto con Omniverse, la tecnológica también ha presentado la nueva plataforma de "modelos de base del mundo" Nvidia Cosmos World Foundation, que se basan en redes neuronales que simulan entornos del mundo real y predicen resultados precisos en función de la entrada de texto, imagen o vídeo.
Estos modelos Cosmos crean un motor de "multiplicación de datos sintéticos" que permite a los desarrolladores generar cantidades masivas de datos sintéticos "fotorrealistas y controlables" que pueden ser posteriormente utilizados para entrenar la IA.
Es decir, los desarrolladores pueden utilizar Omniverse con sus nuevos modelos para componer escenarios 3D y renderizar imágenes o vídeos como salidas, tras ello, pueden utilizar estos escenarios con indicaciones de texto para "condicionar los modelos Cosmos y generar innumerables entornos visuales sintéticos" para el entrenamiento físico de la IA.
Esto se traduce en que la IA podrá analizar y entender los escenarios y todo lo que ocurre en un vídeo, incluidos los movimientos y fenómenos de la física, lo que puede ser útil para entrenar robots inteligentes o coches autónomos avanzados. Con todo ello, los modelos Cosmos son de código abierto y se pueden obtener a través de Hugging Face y el catálogo de Nvidia.
NVIDIA OMNIVERSE BLUEPRINTS
Además de los nuevos modelos, Nvidia también ha aprovechado el evento para anunciar cuatro nuevos 'blueprints', esto es, flujos de trabajo de referencia para casos de uso de IA generativa, ideados para facilitar a los desarrolladores la creación de gemelos digitales Omniverse basados en Universal Scene Description (OpenUSD) para su posterior empleo en la IA física.
En concreto, la tecnológica ha anunciado 'Mega', un plan para desarrollar, probar y optimizar flotas físicas de IA y robots a escala en un gemelo digital antes de su implementación en instalaciones del mundo real. Todo ello, impulsado por la API Omniverse Sensor RTX de Nvidia, que ya está disponible en acceso anticipado.
"El nuevo marco brinda capacidades definidas por 'software' a las instalaciones físicas, lo que permite un desarrollo, prueba, optimización e implementación continuos", ha matizado la tecnológica. Por ejemplo, permite crear un simulador mundial que coordine todas las actividades de los robots y los datos de los sensores, de manera que las empresas puedan actualizar los robots continuamente para variar sus rutas o tareas de forma eficiente.
Por otra parte, Nvidia también ha presentado Omniverse Spatial Streaming, un 'blueprint' ideado para el visor Apple Vision Pro que ofrece ayuda a los desarrolladores a la hora de crear aplicaciones para la transmisión inmersiva de gemelos digitales industriales en el visor.
Siguiendo esta línea, se han desarrollado nuevos gemelos digitales en tiempo real para ingeniería asistida por computadora (CAE). Esto es un flujo de trabajo de referencia creado con aceleración Nvidia CUDA-X, IA física y bibliotecas de Omniverse que permiten la visualización de efectos de física en la vida real.
Finalmente, Nvidia también ha presentado un 'blueprint' de Simulación de vehículos autónomos, que está impulsado igualmente por la API de Ominverse Sensor RTX. Con ello, los desarrolladores podrán reproducir datos de conducción o realizar pruebas de circuito cerrado para acelerar sus procesos de desarrollo.
Todos estos servicios de Omniverse ya están siendo probados por empresas "líderes en el desarrollo de 'software'", como Accenture, Altair o Innoactive, para desarrollar sus nuevos productos y servicios para "acelerar la próxima era de la IA industrial", ha sentenciado.