Stargate, el supercomputador de 100.000 millones de dólares

Inteligencia artificial

Microsoft y OpenAI proyectan un fuerte inversión para los próximos cuatro años

File - OpenAI CEO Sam Altman, left, appears onstage with Microsoft CEO Satya Nadella at OpenAI's first developer conference, on Nov. 6, 2023, in San Francisco. Negotiators will meet this week to hammer out details of European Union artificial intelligence rules but the process has been bogged down by a simmering last-minute battle over how to govern systems that underpin general purpose AI services like OpenAI's ChatGPT and Google's Bard chatbot. (AP Photo/Barbara Ortutay, File)

Sam Altman y Satya Nadella en una conferencia en San Francisco en noviembre pasado 

Barbara Ortutay / LaPresse

En inteligencia artificial no sólo cuenta el software. La cantidad de datos que debe procesarse es tan elevada que sólo una gran capacidad de computación garantiza un buen resultado. Además, hacen falta grandes centros de datos, porque las consultas a grandes modelos de lenguaje, con cientos de miles de parámetros, se hacen por internet, así que el hardware es fundamental y todas las tecnológicas saben que van a tener que invertir mucho en este aspecto. Según el diario online The Information , Microsoft y OpenAI proyectan un centro de datos con un supercomputador llamado Stargate (en inglés, puerta estelar) que podría costar cerca de 100.000 millones de dólares, unos 92.600 millones de euros al cambio actual.

La nueva instalación que proyectan Microsoft y OpenAI debería estar en funcionamiento en el año 2028. Microsoft se haría cargo de esa multimillonaria inversión. Stargate se construiría en Estados Unidos y sería el mayor supercomputador de una serie de varios que ambas compañías se han propuesto crear en los próximos seis años dentro de sus planes para la IA.

La información apunta a que la persona que menciona el coste provisional de alrededor de 100.000 millones de dólares habló directamente con el consejero delegado de OpenAI, Sam Altman, que mantiene una excelente relación con el consejero delegado de Microsoft, Satya Nadella.

La potente instalación sería la culminación de un plan de cinco fases entre las compañías

El supercomputador Stargate sería la culminación de un plan de cinco fases acordado por ambas compañías, que en estos momentos se encuentra en su tercera fase. La información apunta que Microsoft trabaja ya en la cuarta fase, con la construcción de un supercomputador más pequeño que el anterior y que está previsto que entre en funcionamiento a partir del 2026.

Ninguna de las compañías ha hecho comentarios sobre estas informaciones. Un portavoz de Microsoft, sin mencionar directamente el supercomputador Stargate, dijo a la agencia Reuters mediante el envío de un correo electrónico: “siempre estamos planificando la próxima generación de innovaciones de infraestructura necesarias para seguir empujando la frontera de la capacidad de la IA”.

La velocidad con la que se está adoptando la inteligencia artificial requiere inversiones en grandes centros de datos que han disparado la demanda de chips especializados para esta tecnología. La información sobre Stargate señalaba que el proyecto tendrá varias compañías proveedoras de chips. La propia Microsoft anunció en noviembre pasado la creación de un dúo de chips para funcionar con inteligencia artificial.

Hace dos semanas, el consejero delegado de Nvidia, Jensen Huang presentó la nueva plataforma de computación Blackwell y disparó su cotización en bolsa, hasta convertirse en la tercera compañía estadounidense –después de Apple y Microsoft– que alcanza un valor superior a los dos billones de dólares.

La plataforma Blackwell cuenta entre sus componentes con el chip B200, que tiene una potencia de 208.000 millones de transistores y supera en mucho el rendimiento de los aceleradores de IA de Nvidia, que son líderes en este sector. Según Huang, la inteligencia artificial necesita ahora “GPU más grandes”. Los chips de Nvidia no son CPU, procesadores centrales, sino GPU, unidades de proceso gráfico, más capaces en cálculos. Los últimos grandes modelos de lenguaje de IA pueden entrenarse con 2.000 GPU Blackwell y consumir 4 megavatios de potencia en 90 días. La misma tarea con los anteriores chips Nvidia requeriría 8.000 GPU con un consumo de 90 megavatios en el mismo periodo.

Lee también
Etiquetas
Mostrar comentarios
Cargando siguiente contenido...