El aumento de la demanda de cargas de trabajo de IA impulsa la competencia en los chips de red
Las empresas de redes compiten por crear chips capaces de gestionar tareas de IA y aprendizaje automático. Por ejemplo, los ASIC Silicon One G200 y G202 de Cisco se enfrentan a las ofertas de Broadcom, NVIDIA y Marvell. La demanda de tecnología de IA está creciendo rápidamente, y se prevé que el gasto mundial en IA alcance los 154.000 millones de dólares en 2023 y al menos 300.000 millones en 2026. Además, en 2027, casi 1 de cada 5 puertos de conmutación Ethernet adquiridos por los centros de datos se destinará a IA/ML y computación acelerada, según un informe de 650 Group.
Exploración de cómo los chips de red de Cisco mejoran el tiempo de carga de trabajo
Los ASIC Silicon One G200 y G202 de Cisco realizan tareas de IA y ML con un 40% menos de conmutadores a 51,2Tbps. Permiten un clúster de IA/ML de 32K GPUs 400G en una red de dos capas con un 50% menos de óptica y un 33% menos de capas de red. Estos chips ofrecen enrutamiento y conmutación unificados, lo que proporciona una arquitectura convergente para enrutamiento, conmutación y redes AI/ML. El equilibrio de carga avanzado y la latencia ultrabaja los hacen idóneos para gestionar cargas de trabajo de IA/ML. Las capacidades Ethernet mejoradas mejoran aún más el rendimiento, reduciendo el tiempo de finalización de los trabajos en 1,57 veces, y Cisco afirma que los G200 y G202 también incorporan equilibrio de carga, mejor aislamiento de fallos y un búfer totalmente compartido para soportar el rendimiento óptico de las cargas de trabajo AI/ML.
Los fabricantes de chips afrontan los retos de la IA
Según Chopra, los proveedores de redes están introduciendo chips de red con mayor ancho de banda y radix, lo que les permite gestionar las tareas de IA conectándose a un mayor número de dispositivos. Además, están facilitando la comunicación fluida entre GPU, eliminando cuellos de botella y mejorando el rendimiento de las cargas de trabajo de IA/ML.