Explora los avances más recientes y descubre cursos online relacionados
OpenAI ha empezado a rentar Tensor Processing Units (TPUs) de Google Cloud para apoyar sus servicios como ChatGPT, por primera vez usando hardware diferente a los tradicionales GPUs de Nvidia . El objetivo principal es bajar costos de inferencia (esos microprocesos de toma de decisiones de los modelos) y diversificar su infraestructura tecnológica gigazine.net+7reuters.com+7techjuice.pk+7.
🧩 Motivos clave
Reducción de costes: las TPUs están optimizadas para procesamiento de IA y podrían ser más rentables que los GPUs en ciertos escenarios gigazine.net+8reuters.com+8techjuice.pk+8.
Diversificación de proveedores: OpenAI ya no depende tanto de Nvidia–CoreWeave–Microsoft Azure, sino que ahora suma Google como aliado en infraestructura gigazine.net+8reuters.com+8reuters.com+8.
Colaboración entre rivales: aunque Google compite con OpenAI, este acuerdo muestra que el negocio puro de nube puede superar rivalidades .
⚠️ Matices importantes
Se trata de una fase temprana de pruebas y no hay planes inmediatos de escalado masivo, según fuentes internas de OpenAI .
Google no está proporcionando aún sus TPUs más potentes (como Ironwood), solo versiones menos avanzadas gigazine.net+6reuters.com+6m.economictimes.com+6.
📊 Implicaciones estratégicas
Competencia en chips de IA: el movimiento abre espacio para que las TPUs compitan con los predominantes GPUs de Nvidia, incentivando más innovación y posibles reducciones de precio m.economictimes.com+5reuters.com+5tipranks.com+5.
Fortalecimiento de Google Cloud: sumar a OpenAI refuerza su posición entre los gigantes de la nube (frente a AWS y Azure) reuters.com.
OpenAI avanza hacia su chip propio: la empresa mantiene el desarrollo de su hardware y prevé terminar el diseño (“tape-out”) en 2025, para reducir dependencia externa gigazine.net+2reuters.com+2reuters.com+2.
📝 Propuesta de ficha para tu blog
Categoría: Inteligencia Artificial / Infraestructura
Fecha: 27 de junio de 2025
Titular: OpenAI empieza a alquilar TPUs de Google para diversificar infraestructura e impulsar eficiencia
Resumen corto: OpenAI contrata TPUs de Google Cloud en pruebas iniciales para reducir costes de inferencia y reducir su dependencia tecnológica. Aunque limitado, el movimiento abre una nueva competencia en chips de IA, con Google fortaleciendo su nube.
Imagen sugerida: un centro de datos (rack de TPUs) o una comparación simbólica GPU vs TPU
En este espacio compartimos a diario las noticias más relevantes y actualizadas del mundo de la tecnología. Hablamos de inteligencia artificial, programación, ciberseguridad, desarrollo web, avances en software y herramientas digitales.
Nuestro objetivo es mantenerte informado y ayudarte a crecer en el sector tecnológico, ya seas principiante o profesional. Además, en algunas publicaciones encontrarás recomendaciones de cursos online relacionados con el tema, ideales para quienes desean aprender más o mejorar su perfil profesional.
Sigue explorando, actualízate con nosotros y encuentra oportunidades para formarte mientras te mantienes al día.