top of page
Buscar

OpenAI y Google Cloud: un cambio estratégico hacia la IA multicloud

  • Foto del escritor: David Girones Ines
    David Girones Ines
  • 21 jul
  • 5 Min. de lectura

Cuando OpenAI se asoció por primera vez en exclusiva con Microsoft Azure en 2019, marcó un momento decisivo para la implementación de modelos de lenguaje de gran tamaño (LLM): un único hiperescalador respaldaría el notable crecimiento de ChatGPT. A mediados de 2025, OpenAI sorprendió a la industria al anunciar un segundo socio de infraestructura: Google Cloud. Este cambio estratégico hacia una verdadera arquitectura multinube promete mayor resiliencia, flexibilidad de costos y alcance global tanto para desarrolladores como para empresas.



Por qué la multinube es importante hoy en día



Durante el último año, la popularidad de ChatGPT se disparó, duplicándose el número de usuarios hasta superar los 200 millones de cuentas activas mensuales. Con el aumento de la demanda, las granjas de GPU de Azure se vieron sometidas a una gran carga, dejando en ocasiones solicitudes críticas en cola durante horas. Al mismo tiempo, las preocupaciones geopolíticas y las leyes regionales de soberanía de datos se volvieron cada vez más apremiantes: los gobiernos y las grandes corporaciones necesitaban garantías de que sus cargas de trabajo de IA sensibles no quedaran atrapadas en una sola región de la nube.

World map: Azure vs Google Cloud datacenter locations
World map: Azure vs Google Cloud datacenter locations

Al añadir Google Cloud, OpenAI obtiene acceso inmediato a miles de centros de datos adicionales, especialmente en regiones con menor presencia de Azure, y a las Unidades de Procesamiento Tensorial (TPU) personalizadas de Google, que destacan en la matemática matricial, base de la inferencia LLM. No se trata solo de tener un plan B; se trata de acceder a nuevas opciones de rendimiento y precios que controlen los costos de la IA incluso con el aumento vertiginoso del uso.








La ventaja del TPU


Las TPU de Google ofrecen un rendimiento impresionante. Las primeras pruebas de rendimiento sugieren que, para cargas de trabajo de inferencia, las TPU pueden reducir el coste por token en torno a un 15 % en comparación con las GPU NVIDIA en Azure. Esta ventaja se debe a las interconexiones de alta velocidad de las TPU y al diseño optimizado del silicio, que gestionan multiplicaciones de matrices grandes con mayor eficiencia y menor consumo de energía.


En la práctica, imagine una aplicación empresarial que utiliza ChatGPT para generar automáticamente respuestas de soporte al cliente. Al enrutar esas llamadas de inferencia a clústeres con tecnología TPU, el mismo presupuesto se rentabiliza aún más, permitiendo a las empresas responder a más consultas sin sacrificar la latencia ni la precisión.


TPU v4 pod architecture, showing how TPU chips connect over Google´s high-speed mesh network
TPU v4 pod architecture, showing how TPU chips connect over Google´s high-speed mesh network


Construyendo un plano de control unificado


Ejecutar cargas de trabajo de IA en dos nubes no es tan sencillo como pulsar un interruptor. Los ingenieros de OpenAI tuvieron que crear una capa de abstracción, llamada "ComputeMesh", para distribuir dinámicamente las tareas según señales de coste, latencia y capacidad en tiempo real. En segundo plano, los sistemas de orquestación de contenedores como Kubernetes abarcan Azure y Google Cloud, mientras que las interconexiones privadas (Azure ExpressRoute y Google Cloud Interconnect) garantizan una red segura y de alto rendimiento entre regiones.


La consistencia de los datos es otro desafío. Los puntos de control del modelo ahora residen en un almacén de objetos replicado que conecta Google Cloud Storage y Azure Blob Storage, con garantías similares a las de las transacciones, de modo que los trabajos de entrenamiento nunca vean instantáneas obsoletas o parcialmente escritas. En segundo plano, se han unificado las pilas de observabilidad (que utilizan Prometheus para las métricas y Stackdriver para el registro), lo que ofrece a los equipos de SRE un único panel para supervisar el rendimiento y el estado.



Qué significa esto para los usuarios


Los clientes empresariales pueden estar tranquilos sabiendo que los servicios de IA son menos vulnerables a las interrupciones en una sola región. Si un centro de datos de Azure sufre una interrupción, el tráfico puede transferirse de forma transparente a las zonas de Google Cloud sin interrupciones. Mientras tanto, a las instituciones educativas que ya utilizan Google Cloud les resultará más sencillo implementar instancias de ChatGPT sin tener que lidiar con los trámites de adquisición de Azure.


Para las startups y los usuarios de API , la mayor ventaja reside en la posible reducción de precios. A medida que OpenAI negocia acuerdos de instancias puntuales entre dos hiperescaladores, los ahorros pueden llegar a los usuarios finales en forma de tarifas por token más bajas o cuotas más altas en la capa gratuita.



Reacciones de la industria y dinámica competitiva


Google Cloud consigue un socio de IA de renombre, lo que refuerza su posición frente a AWS y Azure. Dar a las TPU un papel protagónico en una implementación de LLM a escala de producción también demuestra que estos chips no son solo curiosidades de investigación, sino que están preparados para los rigores de las cargas de trabajo de IA del mundo real.


Microsoft, por su parte, conserva el derecho de preferencia para nuevos acuerdos de infraestructura de OpenAI, pero la pérdida de exclusividad indica que incluso las alianzas más consolidadas pueden evolucionar. Azure tendrá que competir más arduamente en precio, rendimiento y servicio al cliente para mantener su cuota de las cargas de trabajo de ChatGPT.


«Esta estrategia multicloud es un hito», afirma Ingrid Burton, analista de Gartner. «Esperamos que otros proveedores de IA sigan el ejemplo para finales de año y forjen sus propias alianzas multicloud».


Equilibrar la innovación y la complejidad


Adoptar múltiples nubes conlleva ciertas desventajas. Los equipos de ingeniería deben compatibilizar dos ecosistemas distintos, cada uno con sus propias herramientas, API y peculiaridades, y la depuración entre nubes puede generar fricción. Se espera que la automatización y las plataformas unificadas suavicen estas diferencias, permitiendo a los investigadores de IA centrarse en los modelos en lugar de en la infraestructura.


Desde mi perspectiva, la iniciativa de OpenAI es pragmática y visionaria. Reconoce que la era de la dependencia monolítica de la nube está llegando a su fin y que una IA verdaderamente escalable exige un enfoque federado. A medida que la orquestación multinube madure, probablemente veremos una colaboración más profunda en el codiseño de hardware personalizado, mercados puntuales en tiempo real para la capacidad ociosa y marcos de gobernanza unificados que abarquen a todos los proveedores.



Mirando hacia el futuro


La colaboración con Google Cloud es solo el primer paso. Próximos pasos:

  • Chips de IA personalizados: OpenAI y Google podrían desarrollar conjuntamente aceleradores de próxima generación adaptados a las necesidades de LLM.

  • Mercados de capacidad dinámica: redes de ofertas en tiempo real donde las cargas de trabajo de IA fluyen hacia la computación más barata disponible.

  • Cumplimiento entre nubes: motores de políticas unificados para aplicar reglas de residencia, privacidad y seguridad de datos en todas las regiones.


Al combinar la competencia con la colaboración, la industria de la IA está trazando un nuevo rumbo: uno donde la resiliencia, el rendimiento y la flexibilidad prevalecen sobre la dependencia de un proveedor. Tanto para las empresas como para los desarrolladores, la clave estará en asumir esta complejidad desde el principio, construir arquitecturas que puedan adaptarse sin problemas y estar atentos a las oportunidades emergentes en el panorama multicloud.



Fuentes y lecturas adicionales:


 
 
 

Entradas recientes

Ver todo

Comentarios


bottom of page