Nvidia desarrolla una nueva generación de GPU para procesar millones de contextos
15:55, 10.09.2025
Nvidia ha presentado el procesador gráfico Rubin CPX, diseñado específicamente para modelos lingüísticos y multimodales que necesitan almacenar y analizar enormes cantidades de datos. El chip está optimizado para procesar contextos con más de un millón de tokens, un valor que supera con creces las capacidades de los sistemas modernos.
Arquitectura de inferencia desagregada
La innovación más importante del Rubin CPX es el uso de una arquitectura de inferencia desagregada. En este enfoque, varias GPU procesan diferentes partes de una tarea y luego combinan los resultados en una única respuesta. Esto aumenta la velocidad de trabajo, reduce los retrasos y hace que el uso de los recursos sea más eficiente. Esto es especialmente útil para el análisis de documentos, la creación de contenido multimedia y el trabajo con grandes proyectos de código.
Un avance para la economía y la ciencia
Nvidia destaca que Rubin CPX abre nuevos horizontes para abogados, médicos y desarrolladores. En el ámbito jurídico, ayuda a trabajar con cientos de páginas de leyes; en medicina, a comparar grandes cantidades de datos de pacientes; y en TI, a analizar proyectos completos en lugar de archivos individuales. En el ámbito creativo, la GPU permite la creación de vídeos largos y proyectos multimedia complejos.
Enfoque en la inferencia en lugar del entrenamiento
A diferencia de las soluciones convencionales, Rubin CPX se centra principalmente en optimizar la inferencia, es decir, acelerar el trabajo de los modelos ya terminados. Esto lo hace atractivo para las empresas que desean integrar la IA en su negocio de forma más rápida y rentable.
Lanzamiento al mercado
El lanzamiento al mercado de Rubin CPX está previsto para finales de 2026. Los expertos creen que este procesador podría establecer un nuevo estándar para el sector, en el que trabajar con contextos largos dejará de ser una rareza para convertirse en la norma.