El verdadero competidor de Nvidia y un solo chip en lugar de miles de servidores
12:45, 09.12.2025
La empresa Cerebras Systems ha desarrollado Wafer Scale Engine, el procesador más voluminoso del tamaño de un plato. Esta innovación técnica se creó con el objetivo de minimizar el tiempo de tránsito entre servidores. El nuevo sistema consiste en un monolito en el que se combinan simultáneamente el cálculo y la memoria.
Restricciones geopolíticas
A finales de este año, en lugar del éxito evidente en el sector de los semiconductores, Cerebras Systems se enfrentó a problemas reales de salida a bolsa. Ya en octubre, la empresa cerró una ronda de financiación privada por valor de 1100 millones de dólares.
Cerebras mostraba resultados fantásticos, sus ingresos alcanzaron los 500 millones de dólares y entre sus clientes aparecieron Meta, AWS e IBM. Sin embargo, la situación cambió drásticamente, ya que el comité de inversiones extranjeras de EE. UU. bloqueó su salida a bolsa debido a una posible fuga de tecnología a China.
Más del 80 % de los ingresos de la empresa los genera el holding G42 de Abu Dabi. Esta asociación se considera una amenaza estratégica debido a la magnitud de la colaboración entre las empresas y el origen del capital.
Así, la empresa, con soluciones que claramente superan a las de Nvidia, se ha visto afectada por la situación política.
Características del chip insignia Cerebras WSE-3
Cerebras WSE-3 es una placa que funciona como un superprocesador único. Mientras que la arquitectura de Nvidia consiste en enormes clústeres. Además, Nvidia Blackwell utiliza el estándar de memoria HBM, y no está ubicada dentro del cristal computacional, sino junto a él. Este enfoque provoca un retraso en el acceso a los datos.
Cerebras, por su parte, ha cambiado completamente el enfoque y toda la memoria está integrada en la estructura del chip (SRAM). Como resultado, la empresa no solo minimiza la latencia, sino que tampoco se verá afectada por la escasez de memoria HBM, ya que Nvidia ha monopolizado de facto el suministro de HBM.
La memoria SRAM ultrarrápida está integrada en los núcleos de cálculo, lo que proporciona un ancho de banda de 21 petabytes por segundo, unas cifras fenomenales si se comparan con las soluciones de gama alta de Nvidia.
Escalabilidad para alcanzar la potencia actual
Los LLM modernos funcionan en clústeres de tarjetas de vídeo para lograr el resultado esperado. Nvidia ha dedicado mucho tiempo y recursos a crear el bus NVLink y garantizar el funcionamiento sincronizado de miles de chips. Sin embargo, los clústeres siguen consumiendo más energía para transferir los resultados y sincronizarse.
WSE-3 no tiene este problema, ya que puede alojar 900 000 núcleos en una sola pieza de silicio. El nuevo enfoque no utiliza transceptores ópticos, cables de red ni conmutadores, por lo que los retrasos internos se reducen a cero.