NVIDIA Conferencia GTC - Texto Completo: Huang Ren Xun Anuncia la Llegada de la Era de la Inferencia, ¡Llama es el Nuevo Sistema Operativo!

Fuente: Wall Street Journal

Escrito por: Bao Yilong

En la conferencia GTC 2026, el CEO de Nvidia, Huang Renxun, posicionó a la compañía como un “fabricante de IA”, afirmando que “para 2027 veremos una demanda de al menos 1 billón de dólares con alta confianza”. Propuso la “economía de fábricas de tokens”, destacando que el rendimiento por vatio es el núcleo para la monetización comercial. Huang afirmó que los agentes (inteligencias) acabarán con el modelo SaaS tradicional, y en el futuro, “salario anual + presupuesto en tokens” será el nuevo estándar en el lugar de trabajo.

Discurso de apertura

Moderador: Bienvenidos a la presentación de Huang Renxun, fundador y CEO de Nvidia.

Huang Renxun, fundador y CEO:

Bienvenidos a GTC. Es una conferencia tecnológica, y me alegra ver a tanta gente haciendo fila desde temprano.

Hoy discutiremos en torno a tres plataformas principales: la plataforma CUDA-X, la plataforma de sistemas, y la nueva plataforma de fábricas de IA. Por supuesto, lo más importante es el ecosistema.

Primero, quiero agradecer a nuestros presentadores de “calentamiento previo”: Sarah Guo de Conviction, Alfred Lin de Sequoia Capital (el primer inversor de riesgo de Nvidia), y Gavin Baker, primer inversor institucional importante en Nvidia. Los tres tienen una profunda comprensión tecnológica y una influencia amplia en el ecosistema tecnológico. También agradezco a todos los invitados que seleccioné personalmente.

Asimismo, agradezco a todas las empresas asistentes. Nvidia, como plataforma, posee tecnología, plataformas y un ecosistema rico. Hoy, casi todas las empresas que abarcan una industria de billones de dólares están aquí: 450 patrocinadores, muchas gracias.

La conferencia cuenta con 1,000 sesiones técnicas y 2,000 ponentes, cubriendo cada capa del “pastel de cinco niveles” de la inteligencia artificial — desde tierra, energía e infraestructura, hasta chips, plataformas, modelos y las aplicaciones que impulsan toda la industria.

Historia de 20 años de CUDA

Este año se cumplen 20 años del nacimiento de CUDA.

Durante estas dos décadas, hemos dedicado esfuerzos a esta arquitectura — esta invención revolucionaria: SIMT (Single Instruction Multiple Threads), que permite derivar código escalar en aplicaciones multihilo, facilitando la programación en comparación con métodos tradicionales. En años recientes, añadimos soporte para Tiles (losetas), ayudando a los desarrolladores a programar más fácilmente los Tensor Cores y las estructuras matemáticas modernas de IA.

Hasta ahora, CUDA ha acumulado miles de herramientas, compiladores, frameworks y bibliotecas, con cientos de miles de proyectos de código abierto en la comunidad, y está profundamente integrado en todos los ecosistemas principales.

Efecto de volante y base de instalación

La siguiente imagen describe casi toda la estrategia de Nvidia.

Lo más difícil y estratégico es la base de instalación subyacente. Tras 20 años, hemos construido en todo el mundo cientos de millones de GPUs y sistemas de cálculo que ejecutan CUDA. Cubrimos todos los proveedores de servicios en la nube y fabricantes de computadoras, atendiendo casi todos los sectores.

La base de instalación de CUDA es la razón principal del efecto de volante acelerado. La enorme base de instalaciones atrae a desarrolladores, quienes crean nuevos algoritmos, generando avances — como el nacimiento del aprendizaje profundo. Estos avances abren nuevos mercados, que reúnen más socios ecológicos, creando una base aún mayor. Este efecto de volante continúa acelerándose.

Actualmente, las descargas de las bibliotecas de Nvidia crecen a un ritmo sorprendente, y esa tasa sigue aumentando. Este efecto de volante permite que la plataforma de cálculo sostenga una cantidad masiva de aplicaciones y avances tecnológicos.

Más importante aún, prolonga la vida útil de la infraestructura. La razón es simple: CUDA puede ejecutar una amplia gama de aplicaciones en todas las etapas del ciclo de vida de IA, en plataformas de datos, y en diversos solucionadores científicos. Por ello, una vez instalado en una GPU de Nvidia, su uso puede ser muy duradero.

Esto explica por qué la arquitectura Ampere, lanzada hace seis años, aún mantiene precios en la nube en aumento.

Al mismo tiempo, al actualizar continuamente nuestro software, los costos de cálculo disminuyen — no solo por el aumento en rendimiento en la implementación inicial, sino también por la reducción de costos a largo plazo gracias a la aceleración del cálculo. Dado que todas las GPUs son compatibles en arquitectura, apoyamos y mantenemos cada GPU en todo el mundo. Cuanto mayor sea la base de instalación, más usuarios se benefician de cada optimización.

Este dinámico conjunto permite que la arquitectura de Nvidia amplíe su alcance, acelere el crecimiento y reduzca continuamente los costos de cálculo, impulsando así una nueva ola de expansión.

El punto de partida de CUDA: GeForce

El viaje de CUDA comenzó en realidad con GeForce hace 25 años.

GeForce es la campaña de marketing más exitosa de Nvidia. Desde que ustedes eran pequeños y aún no tenían capacidad de consumo, empezamos a atraer a futuros clientes — en ese entonces, sus padres pagaban por ello, año tras año, hasta que ustedes crecieron y se convirtieron en destacados científicos de la computación, en verdaderos desarrolladores.

Hace 25 años, inventamos los shaders programables — la primera aceleradora programable del mundo, y el inicio de los pixel shaders. Este invento nos llevó a explorar más a fondo, y cinco años después nació CUDA.

Expandir CUDA desde GeForce a cada computadora fue una de nuestras mayores inversiones en ese momento — aunque costaba mucho, consumió la mayor parte de las ganancias de la compañía. Creíamos en su potencial, y aunque fue difícil al principio, tras 20 años y 13 generaciones de arquitectura, CUDA está en todas partes hoy en día.

Hace unos ocho años, lanzamos la serie RTX, que rediseñó completamente la arquitectura, introduciendo dos conceptos innovadores: trazado de rayos en hardware y renderizado gráfico impulsado por IA. Como GeForce llevó la IA al mundo — permitiendo a Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton, Andrew Ng y otros descubrir que las GPU aceleran el aprendizaje profundo, desencadenando la explosión de la IA — ahora, la IA transformará radicalmente también los gráficos por computadora.

Renderizado neuronal: DLSS 5

Hoy, quiero mostrarles el futuro de la tecnología gráfica. Lo llamamos renderizado neuronal — la fusión de gráficos 3D e inteligencia artificial, esto es DLSS 5.

¿Impresionante, verdad? Fusionamos datos 3D controlados (las “estructuras” del mundo virtual) con IA generativa (cálculo probabilístico): uno totalmente predecible, el otro probabilístico pero altamente realista. La combinación produce contenido que es hermoso, realista y completamente controlable.

La integración de datos estructurados y IA generativa se repetirá en muchas industrias. Los datos estructurados son la base para IA confiable.

Plataformas de datos estructurados y no estructurados

La siguiente imagen puede sorprenderte, pero por favor, escúchame hasta el final.

Los datos estructurados — SQL, Spark, Pandas, Velox, y plataformas clave como Snowflake, Databricks, Amazon EMR, Azure Fabric, Google BigQuery — todos trabajan con Data Frames. Esencialmente, estos Data Frames son enormes hojas de cálculo que contienen toda la información empresarial, sirviendo como “hechos de referencia” en el cálculo empresarial.

En la era de IA, estos datos estructurados serán accedidos a alta velocidad por IA, por lo que deben ser acelerados al máximo. En el futuro, los agentes de IA también usarán ampliamente bases de datos estructuradas.

Por otro lado, los datos no estructurados representan la mayor parte de la información mundial: vectores, PDFs, videos, voz… aproximadamente el 90% de la información generada anualmente es no estructurada. Antes, estos datos eran casi inútiles — los almacenábamos en sistemas de archivos, sin poder buscarlos ni consultarlos.

Ahora, la IA cambia todo esto. Como resuelve problemas de percepción y comprensión multimodal, puede leer PDFs, entender su contenido y convertirlos en estructuras más grandes, buscables y consultables.

Para ello, Nvidia creó dos bibliotecas fundamentales:

cuDF: aceleración de Data Frames y datos estructurados

cuVS: aceleración de almacenamiento vectorial, datos semánticos y datos no estructurados de IA

Estas plataformas serán algunas de las más importantes en el futuro del cálculo.

Hoy, anunciamos varias colaboraciones:

IBM (inventora de SQL) usa cuDF para acelerar su plataforma WatsonX

Dell colaboró con nosotros para crear la plataforma de datos AI de Dell, integrando cuDF y cuVS, diseñada para la era de IA

Google Cloud: aceleramos Vertex AI y BigQuery; por ejemplo, ayudamos a Snapchat a reducir casi un 80% sus costos computacionales

AWS: aceleramos EMR, SageMaker y Bedrock, y llevaremos OpenAI a AWS para impulsar su consumo en la nube a gran escala

Microsoft Azure: aceleramos Azure AI Foundry, apoyamos profundamente a Bing y expandimos despliegues en regiones de Azure

CoreWeave: la primera nube nativa de IA del mundo, creada para alojamiento de GPU y inferencia de IA

Oracle: somos el primer cliente de IA de Oracle

Palantir + Dell: colaboración tripartita para desplegar plataformas de IA en cualquier país, región aislada y de forma completamente local

Estrategia central de Nvidia: integración vertical y apertura horizontal

Nvidia es la primera compañía de cálculo en el mundo que combina integración vertical con apertura horizontal.

El cálculo acelerado no es solo un problema de chips o sistemas, sino de acelerar aplicaciones. Para ofrecer aceleración significativa y reducción de costos en cada campo, hay que entender profundamente las aplicaciones, los dominios y los algoritmos, y desplegarlos en cada escenario — ya sea en centros de datos en la nube, en instalaciones locales, en el edge o en sistemas robóticos.

Por eso, Nvidia debe profundizar en cada sector vertical. Integramos algoritmos en plataformas de cálculo y las abrimos al mundo.

Esta GTC cubre casi todos los sectores verticales del ecosistema Nvidia, incluyendo:

Conducción autónoma

Servicios financieros (el sector con mayor participación en esta GTC; los desarrolladores, no los traders)

Salud (en plena “hora de ChatGPT”)

Manufactura industrial

Entretenimiento y videojuegos

Robótica (110 robots en exhibición, casi todas las empresas de robótica colaboran con Nvidia)

Telecomunicaciones (sector de aproximadamente 2 billones de dólares; las estaciones base evolucionarán hacia infraestructura de edge AI)

Anunciamos en esta conferencia 100 bibliotecas y unas 40 actualizaciones de modelos. Estas bibliotecas son activos clave para activar plataformas de cálculo y resolver problemas reales.

Una de las más importantes es cuDNN (CUDA Deep Neural Network Library), que revolucionó la inteligencia artificial y encendió la explosión moderna de IA.

El punto de inflexión en inferencia

¿Qué ha pasado en los últimos dos años? Tres eventos principales impulsaron todo esto:

Primero: la apertura de la era de ChatGPT y la IA generativa (finales de 2022 a 2023). La IA ahora no solo percibe y comprende, sino que también traduce, crea y genera contenido nuevo. El cálculo generativo cambió fundamentalmente la arquitectura y lógica de construcción de las computadoras.

Segundo: la emergencia de la IA de inferencia (modelos o 1 y o 3). La IA de inferencia permite que los modelos reflexionen, planifiquen, descompongan problemas complejos en pasos manejables, y sean más confiables y basados en hechos. Esto disparó el uso de ChatGPT y aumentó mucho el cálculo de tokens de entrada y salida.

Tercero: la creación de Claude Code y la IA agente (Agentic AI). Es el primer modelo verdaderamente agente, capaz de leer archivos, escribir código, compilar, probar, evaluar y optimizar iterativamente. Claude Code revolucionó la ingeniería de software. Hoy, cada ingeniero de Nvidia usa un agente de IA para programar.

La IA ha evolucionado de “percepción” a “generación”, de “generación” a “razonamiento”, y de “razonamiento” a “ejecución” — ahora puede realizar trabajos realmente productivos.

El punto de inflexión en inferencia ya llegó. Cada pensamiento, ejecución, lectura y razonamiento requiere inferencia, y la demanda de tokens crece exponencialmente. En los últimos dos años, la demanda de cálculo por tarea aumentó unas 10,000 veces, y el uso en sí creció unas 100 veces, casi 1,000,000 de veces en total.

De 500 mil millones a 1 billón de dólares

El año pasado en GTC, mencioné que prevíamos una demanda de aproximadamente 500 mil millones de dólares para 2026, con alta confianza, en Blackwell y Rubin.

Hoy, un año después, puedo ver claramente que, al menos hasta 2027, la demanda alcanzará 1 billón de dólares.

Y estoy seguro de que la demanda real será mucho mayor.

El año pasado fue el año de la inferencia en Nvidia. Nos esforzamos en garantizar un rendimiento sobresaliente en todas las etapas del ciclo de vida de IA, no solo en entrenamiento y post-entrenamiento, para que la inversión en infraestructura tenga valor a largo plazo.

También nos alegra que Anthropic y Meta SL hayan elegido Nvidia. Los modelos de código abierto están cerca de la vanguardia y son omnipresentes. Nvidia es actualmente la única plataforma capaz de cubrir todos los ámbitos de IA — desde lenguaje, biología, gráficos por computadora, visión artificial, voz, proteínas y química, hasta robótica, en todos los escenarios, desde edge hasta nube.

Nuestra arquitectura de “fungibilidad” la hace la plataforma de menor costo y mayor confianza para construir infraestructura de IA. Cuando inviertes en infraestructura por billones, necesitas total confianza — Nvidia es la única plataforma global que te permite desplegar con plena seguridad, ya sea en la nube, en instalaciones locales o en cualquier país.

Actualmente, el 60% de nuestro negocio proviene de los cinco principales proveedores de nube a gran escala, y el 40% restante de nubes regionales, nubes soberanas, empresas, industria, robótica, edge y supercomputación. Esta diversificación es en sí misma una fortaleza — la IA ya no es una sola aplicación, sino una transformación real de la plataforma de cálculo.

Avances en rendimiento de inferencia

Hemos logrado un avance fundamental en la optimización de inferencia:

Este es el análisis de rendimiento de IA más completo hasta la fecha (de Semi Analysis). Los aspectos analizados son:

Eje vertical (tokens por vatio): refleja el rendimiento. Cada centro de datos está limitado por energía; una fábrica de 1 GW no puede convertirse en 2 GW, por lo que hay que maximizar la producción de tokens con energía limitada.

Eje horizontal (velocidad de inferencia / tasa de tokens): refleja la interactividad y la “inteligencia” de la IA. Cuanto más rápido, mayor el tamaño del modelo, más largo el contexto, más profundo el pensamiento — más “inteligente”.

Los resultados son sorprendentes:

Desde Hopper H200 hasta Grace Blackwell, se esperaba un aumento de 1.5 veces según la ley de Moore, pero el rendimiento real fue 35 veces mayor por vatio. Dylan Patel de Semi Analysis incluso dijo que los datos son conservadores — en realidad, ¡50 veces!

Esto significa que el costo por token de Nvidia es el más bajo del mundo. Construir un centro de datos de 1 GW cuesta aproximadamente 40 mil millones de dólares (amortizado en 15 años), y siempre se debe pagar esa inversión fija. Por eso, se necesita el sistema de cálculo más eficiente para lograr el menor costo por token, y Nvidia es insuperable en esto.

Por ejemplo, con Fireworks AI: tras actualizar su software, la tasa de tokens pasó de unos 700 tokens/segundo a casi 5,000 tokens/segundo, un aumento de 7 veces. Esa es la potencia del diseño de colaboración extrema.

Lógica comercial de la fábrica de tokens:

En el futuro, cada proveedor de nube y empresa de IA verá su negocio desde la perspectiva de la fábrica de tokens. Diferentes tasas de tokens corresponden a diferentes niveles de servicio y precios:

Nivel gratuito: alto rendimiento, baja velocidad

Nivel básico: aproximadamente 3 USD por millón de tokens

Nivel estándar: aproximadamente 6 USD por millón de tokens

Nivel avanzado: aproximadamente 45 USD por millón de tokens

Nivel premium: aproximadamente 150 USD por millón de tokens (alta velocidad, contexto extenso, modelos grandes)

Tomemos como ejemplo a Grace Blackwell: en el nivel de servicio más valioso, la tasa de tokens aumentó 35 veces respecto a Hopper, incrementando significativamente la capacidad de monetización y elevando los ingresos del centro de datos en unas 5 veces.

Vera Rubin: la próxima generación de arquitectura

Ahora, no solo muestro un chip, sino todo un sistema: Vera Rubin.

Vera Rubin está diseñada específicamente para sistemas agenticos, con una lógica muy clara:

Los grandes modelos de lenguaje crecerán en tamaño, generando más tokens y pensando más rápido;

Los agentes de IA accederán frecuentemente a memoria (KV Cache), datos estructurados (cuDF) y datos no estructurados (cuVS);

Los sistemas de almacenamiento soportarán una gran carga;

Las llamadas a herramientas requerirán CPU con rendimiento de hilo único extremadamente alto.

Para ello, creamos la nueva Vera CPU — la única en el mundo que usa LPDDR5 en centros de datos, con rendimiento de hilo único excepcional, capacidad de procesamiento de datos y eficiencia energética sin igual.

Características principales del sistema Vera Rubin:

100% enfriamiento líquido, cables simplificados

Tiempo de instalación reducido de dos días a dos horas

Refrigeración con agua a 45°C, reduciendo significativamente el consumo de energía en enfriamiento

Sistema de intercambio NVLink de sexta generación (el único en el mundo) — completamente líquido, muy difícil de lograr, orgullosos de nuestro equipo

El primer switch CPO Spectrum-X (integración óptica completa) en producción: fotones integrados directamente en el chip, señal electrónica convertida en fotones y conectada directamente al chip. Desarrollado en colaboración con TSMC, somos los únicos en producción, llamado “CoOP”, revolucionario.

También en producción en serie, varias series de CPU que se convertirán en negocios de miles de millones de dólares.

Rubin Ultra (versión super):

Utiliza la nueva estructura “Kyber”, soportando 144 GPUs en un solo dominio NVLink. Los nodos de cálculo se insertan desde el frente, los switches NVLink se conectan desde atrás mediante una placa intermedia, formando una supercomputadora.

En la hoja de ruta tecnológica:

Blackwell (actual): sistema Oberon, soporta NVLink 72

Vera Rubin: estructura Kyber (NVLink 144) + extensión de cobre/óptica a NVLink 576

Vera Rubin Ultra: chip Rubin Ultra + LP 35 (introduce por primera vez la estructura de cálculo NVFP 4)

Feynman (próxima generación): GPU completamente nueva + LP 40 + CPU Rosa (Rosen) + Bluefield 5 + CX 10 + extensión de cobre y CPO dual-mode

Adquisición de Grok y avances en inferencia heterogénea

Adquirimos el equipo técnico de Grok y obtuvimos licencia tecnológica para integración profunda.

Características del procesador Grok:

Procesador de flujo de datos determinista, compilación estática, programado por compilador

Datos y cálculo llegan simultáneamente, sin programación dinámica, solo software

Amplia SRAM, diseñada específicamente para inferencia, carga de trabajo única

Limitación: un chip Grok tiene solo 500 MB de almacenamiento (en comparación, un chip Rubin tiene 288 GB), lo que limita su escala para modelos grandes y KV Cache — hasta que tuvimos una idea brillante.

Dynamo: marco de desacoplamiento de inferencia

Desarrollamos Dynamo, un software que reestructura el proceso de inferencia:

Fase de prellenado (Prefill): en Vera Rubin (requiere mucha potencia)

Cálculo de atención en decodificación (Decode): en Vera Rubin (requiere mucha potencia)

Generación de tokens y red feedforward en decodificación: en chip Grok (requiere ancho de banda alto y baja latencia)

Estos dos procesadores, uno optimizado para alto rendimiento y otro para baja latencia, se acoplan estrechamente mediante Dynamo, reduciendo la latencia en aproximadamente un 50%.

Resultado: en el nivel de servicio más valioso, el rendimiento aumenta 35 veces, abriendo una nueva dimensión en inferencia.

Grok LP 30, fabricado por Samsung, ya en producción, comenzará a enviarse en el tercer trimestre de 2026.

Estrategia de despliegue óptimo de Grok:

Para cargas de trabajo de alto rendimiento: 100% Vera Rubin

Para cargas con alta generación de código o tokens rápidos: recomendar 25% de capacidad en Grok, y 75% en Vera Rubin.

Escala y perspectivas de la fábrica de IA

En una fábrica de un GW, en solo dos años, con las optimizaciones anteriores, la tasa de generación de tokens pasará de 22 millones a 700 millones, un aumento de 350 veces.

Este es el poder del diseño de colaboración extrema — integración vertical y apertura horizontal, compartiendo los beneficios.

A medida que la escala de las fábricas de IA crece rápidamente, identificamos un problema clave: los proveedores tecnológicos en los centros de datos han trabajado de forma independiente, generando mucho desperdicio energético.

Por ello, creamos la plataforma Nvidia DSX, basada en Omniverse, que permite a todos los socios diseñar conjuntamente fábricas de IA de varios GW en un mundo virtual — simulando sistemas mecánicos, térmicos, eléctricos y de red, conectados en tiempo real a la red eléctrica, optimizando dinámicamente el consumo y la refrigeración con Max-Q.

Creemos que esta plataforma puede duplicar la eficiencia — en una escala de billones, un valor enorme.

Además, Nvidia entrará en el espacio: el chip Thor ha pasado la certificación de radiación y se desplegará en satélites. Estamos desarrollando Vera Rubin Space-1 para construir centros de datos en el espacio (resolviendo desafíos de disipación de calor por radiación).

OpenClaw: sistema operativo para agentes de IA

Ahora, una gran novedad.

Peter Steinberger desarrolló un software llamado OpenClaw. Se ha convertido en el proyecto de código abierto más popular, superando en semanas la difusión que Linux logró en treinta años.

¿Qué es OpenClaw? Es un sistema agentico que puede:

Conectar grandes modelos de lenguaje

Acceder a herramientas y sistemas de archivos

Ejecutar tareas programadas y de temporización

Descomponer problemas en subtareas paso a paso

Generar y llamar a sub-agentes

Soportar interacción multimodal (texto, voz, gestos, etc.)

En otras palabras, OpenClaw es el sistema operativo de la computación agentica. Como Windows hizo posible la computación personal, OpenClaw hace posible los agentes personales.

La pregunta clave para cada empresa ahora es: ¿Cuál es tu estrategia OpenClaw?

Al igual que en el pasado cada compañía necesitaba una estrategia de Linux, HTTP/HTML o Kubernetes, hoy todas deben tener una estrategia de OpenClaw y sistemas agenticos.

Transformación del paradigma empresarial de TI:

Modo antiguo: almacenamiento de archivos en centros de datos → herramientas de software → uso humano

Modo nuevo: cada SaaS será una empresa AaaS (Agentic as a Service), ofreciendo servicios especializados de agentes.

Pero los sistemas agenticos internos enfrentan desafíos de seguridad: pueden acceder a información sensible, ejecutar código y comunicarse externamente. Por ello, colaboramos con Peter Steinberger y expertos en seguridad para desarrollar la versión empresarial de OpenClaw, basada en tecnología de seguridad OpenShell, con motor de políticas, cortafuegos y enrutadores de privacidad, creando una arquitectura de referencia segura, llamada NemoClaw, que puede descargarse y usarse directamente.

Plan de modelos abiertos de Nvidia

Nvidia ha establecido liderazgo en modelos de vanguardia en cada campo de IA:

Modelo

Campo

Nemotron

Modelos de lenguaje grande

Cosmos

Modelos fundamentales globales

GROOT

Modelo de robot general

Alpamayo

Conducción autónoma

BioNeMo

Biología digital / descubrimiento de fármacos

PhysicsNeMo

Simulación física de IA

Hoy, anunciamos oficialmente la creación de la alianza Nemotron, en colaboración con las siguientes empresas para desarrollar Nemotron 4:

BlackForest Labs (generación de imágenes)

Cursor (edición de código)

LangChain (framework para construir agentes personalizados, con mil millones de descargas)

Mistral (gran modelo de código abierto)

Perplexity (búsqueda IA)

Reflection (sistema multimodal agentico)

Sarvam (empresa india de IA)

Thinking Machines (laboratorio fundado por Mira Murati)

Estas empresas colaboran con nosotros para integrar profundamente el diseño de referencia Nemotron, el paquete de herramientas de IA agentica de Nvidia y toda la serie de modelos abiertos en sus productos y servicios.

IA física y robótica

Además de los agentes digitales, seguimos trabajando en IA física y robótica.

Hemos desarrollado tres computadoras clave para sistemas robóticos:

Computadora de entrenamiento

Computadora para generación de datos sintéticos y simulación

Computadora integrada en el robot

Colaboramos con Siemens, Cadence y otros socios en integraciones profundas, y anunciamos varias colaboraciones importantes:

Conducción autónoma: la “hora de ChatGPT” en conducción ya llegó. Anunciamos cuatro nuevos socios RoboTaxi: BYD, Hyundai, Nissan y Geely, además de Mercedes-Benz, Toyota y GM, que producen en total 18 millones de autos al año, integrados en la plataforma RoboTaxi de Nvidia. También, un acuerdo con Uber para desplegar RoboTaxi en varias ciudades y conectar su red.

Robótica industrial: colaboramos con ABB, Universal Robots, KUKA y Caterpillar para integrar modelos físicos y sistemas de simulación en líneas de producción globales.

Telecomunicaciones: T-Mobile también está aquí — las futuras estaciones base evolucionarán hacia infraestructura edge AI, que puede inferir dinámicamente el tráfico y ajustar la formación de haces, mejorando la señal y ahorrando energía.

Finalmente, mostramos el robot “Olaf” desarrollado junto a Disney — basado en la plataforma Jetson, entrenado en Omniverse, y con el solucionador físico Newton, desarrollado en colaboración con Disney y DeepMind, que realiza movimientos adaptativos en el mundo real. Es una demostración de IA física y una vista previa de futuros parques temáticos.

Resumen

En esta GTC, abordamos cuatro temas centrales:

Punto de inflexión en inferencia — la transición de IA de “comprender” a “generar”, “razonar” y “trabajar”, con demanda de cálculo que se multiplica por un millón; el punto de inflexión en inferencia ya está aquí.

Fábrica de IA — los centros de datos evolucionan de almacenar archivos a producir tokens; Vera Rubin puede aumentar en aproximadamente 5 veces los beneficios en cada nivel de servicio.

Revolución de OpenClaw y agentes — la transformación profunda en TI empresarial, donde cada empresa necesita una estrategia de agentes, y NemoClaw ofrece un diseño seguro y confiable.

IA física y robótica — conducción autónoma, robots industriales y humanoides, la era de la IA física ya comenzó.

¡Que tengan todos un excelente GTC, gracias!

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado