Meta firma con Google un acuerdo multianual de miles de millones para alquilar TPUs y plantar cara a Nvidia

Publicado el: 4 de marzo de 2026 a las 20:42
Síguenos
Logos de Google Cloud y Meta tras su acuerdo para alquilar chips TPU de inteligencia artificial.

Meta Platforms ha firmado un acuerdo para alquilar los chips de inteligencia artificial personalizados de Google a través de Google Cloud. Con ese movimiento, la compañía refuerza su capacidad para entrenar y desplegar modelos de IA propios en plena carrera por la potencia de cómputo.

El pacto se suma a una semana en la que Meta ha asegurado suministro de tres grandes fabricantes de chips de la industria. El mensaje es, en gran medida, que la empresa no quiere depender de un solo proveedor y está dispuesta a invertir decenas de miles de millones de dólares para conseguirlo.

Un acuerdo que acerca a Meta y Google

Según informes especializados, Meta Platforms alquilará las unidades de procesamiento tensorial de Google, conocidas como TPU, a través de la nube de Google Cloud. También se explora la compra directa de estos chips para integrarlos en los centros de datos propios de Meta a partir del próximo año si los planes avanzan según lo previsto.

Al mismo tiempo, Alphabet prepara una empresa conjunta para arrendar TPU a otros clientes de IA. Con este paso, el grupo intenta transformar las TPU de una ventaja interna a un negocio comercial capaz de disputar parte del mercado que hoy domina Nvidia.

Las TPU se desarrollaron en Google hace más de una década para acelerar tareas de IA internas. Durante años se reservaron para los servicios de la casa, desde el buscador hasta el traductor, y solo se ofrecieron a algunos clientes de la nube. Que Meta se sume ahora como gran cliente marca un salto de escala para este tipo de chip.

Una carrera por chips que no depende de un solo nombre

El acuerdo con Google llega después de un pacto plurianual entre Meta y AMD para acceder a hasta seis gigavatios de GPUs Instinct. Ese paquete de potencia, valorado en hasta sesenta mil millones de dólares en cinco años, incluye además un warrant que podría entregar a Meta hasta un diez por ciento de las acciones de AMD según las condiciones del acuerdo.

En el anuncio conjunto, el consejero delegado de Meta, Mark Zuckerberg, afirmó que están «emocionados de formar una asociación a largo plazo con AMD» para desplegar capacidad de inferencia eficiente y ofrecer lo que llama «superinteligencia personal». En la práctica, Meta presenta este paso como una forma de diversificar su capacidad de cómputo y no jugárselo todo a una sola familia de chips.

Una semana antes, la compañía ya había ampliado su alianza con Nvidia para desplegar millones de procesadores de próxima generación de las familias Blackwell y Vera Rubin. El acuerdo incluye también CPUs Grace y equipos de red para conectar estos chips en grandes granjas de servidores que alimentarán sus modelos más avanzados.

Una estrategia de silicio a varias bandas

Analistas de Morningstar describen este enfoque como una estrategia de silicio multifacética. En su lectura, Meta reserva las GPU de Nvidia para el entrenamiento de modelos de frontera, utiliza los chips de AMD para ampliar la inferencia diaria, recurre a las TPU de Google para una posible expansión de las cargas de trabajo de Llama y mantiene sus propios aceleradores MTIA para los algoritmos de recomendación que sustentan las redes sociales.

Dicho de forma sencilla, Meta reparte sus apuestas para que cada tipo de chip se ocupe de la tarea en la que es más eficiente. Para el usuario final, que mira su feed en el móvil mientras va en metro, todo esto se traduce por lo general en recomendaciones más rápidas y modelos de IA que responden mejor sin saber qué pieza de silicio hay detrás.

Este reparto también reduce el riesgo de depender de un solo fabricante en un momento de escasez relativa de chips de alto rendimiento. Si un proveedor sufre retrasos o sube precios, la compañía puede mover parte de sus cargas de trabajo a otro socio con menos fricción y más margen de maniobra.

Google quiere que sus TPU salgan del laboratorio

El alquiler de TPU a Meta encaja con un giro más amplio de Google en los últimos meses. En octubre de 2025, la compañía cerró un acuerdo valorado en decenas de miles de millones de dólares con Anthropic para dar acceso a hasta un millón de TPU, lo que convirtió estas máquinas en la base de parte de la infraestructura de ese laboratorio de modelos fundacionales.

En diciembre se conoció que Google colaboraba con Meta en un proyecto llamado TorchTPU destinado a asegurar la compatibilidad total entre las TPU y el marco de software PyTorch, muy extendido entre los investigadores de IA. Informes recientes también señalan que Google ha aumentado el apoyo financiero a socios de centros de datos y explora una inversión en la startup de nube Fluidstack para estimular la demanda de TPU.

Algunos directivos de Google Cloud estiman que, si esta apuesta tiene éxito, las ventas de TPU podrían capturar en el futuro hasta un diez por ciento de los ingresos anuales de Nvidia. Sería una porción de miles de millones de dólares en un mercado que crece a gran velocidad y en el que ningún actor quiere quedarse atrás.

Lo que se juega Meta en esta inversión masiva en IA

Según las proyecciones más recientes, el gasto de Meta en infraestructura de IA podría alcanzar hasta ciento treinta y cinco mil millones de dólares en 2026. La empresa planea operar unos treinta centros de datos, veintiséis de ellos en Estados Unidos, que concentrarán buena parte de esta potencia de cómputo.

Fuentes citadas por The Guardian señalan que un enfoque con varios proveedores simplemente refleja la escala a la que ya opera la compañía. El analista Nguyen resume la situación con una frase clara «Meta ya ha crecido lo suficiente como para requerir varias alternativas».

Al final del día, esta carrera por chips de IA no solo enfrenta a grandes tecnológicas en los despachos. También definirá cuánta energía consumen los centros de datos, qué modelos llegan a los usuarios y qué empresas se llevan el grueso del negocio del hardware que hace posible la inteligencia artificial generativa.

La información principal se ha difundido a través de comunicados oficiales y presentaciones de Meta Platforms, Google Cloud, AMD, Nvidia y análisis de Morningstar.

Techy44

Redacción Techy44 by Okdiario. Grupo de periodistas dedicados a divulgar noticias sobre tecnología, ciberseguridad, informatica, inteligencia artificial y juegos.

Deja un comentario