OpenAI va más allá de Azure: ampliación de la infraestructura de IA
15:39, 22.07.2025
En enero de 2025 expiró el contrato exclusivo entre Microsoft y OpenAI, en virtud del cual OpenAI estaba obligada a utilizar únicamente la plataforma en la nube Azure para entrenar y alojar sus modelos, incluido ChatGPT.
A partir de este año, las reglas han cambiado: ahora se aplica el principio de «derecho de preferencia»: si los recursos de Microsoft resultan insuficientes, OpenAI tiene derecho a contratar a terceros proveedores.
Transición a una arquitectura multicloud
OpenAI aprovechó rápidamente la oportunidad para diversificar su infraestructura. Además de su colaboración continua con Microsoft, la empresa ha firmado acuerdos con CoreWeave, Oracle Cloud, Google Cloud y otros proveedores de potencia informática. Este paso le permite escalar el entrenamiento de modelos a volúmenes sin precedentes y alcanzar el hito de 1 millón de GPU a finales de 2025.
Sin embargo, la expansión también tiene sus retos tecnológicos. OpenAI ya utiliza el entrenamiento distribuido en múltiples centros de datos, lo que requiere una alta sincronización y estabilidad de la infraestructura.
Los competidores no se quedan atrás
Los planes de OpenAI de alcanzar el millón de GPU a finales de año no son únicos. Sus competidores están aumentando su capacidad a un ritmo similar. Meta tiene como objetivo alcanzar 1,3 millones de GPU en el mismo plazo. Mientras tanto, xAI, una empresa fundada por Elon Musk, ha comprado una antigua instalación industrial en Memphis, donde tiene previsto instalar hasta un millón de aceleradores gráficos, además de los 200 000 que ya están en funcionamiento.