AWS o cómo no depender (o no tanto) de Nvidia
Economía digital
La filial de Amazon diseña una infraestructura propia para la inteligencia artificial
Amazon Web Services (en adelante AWS), la rama del gigante Amazon que ofrece servicios en la nube, contribuye con el 18% de los ingresos del conglomerado (78.770 millones de dólares sobre 450.152 millones) y con el 61% de su beneficio operativo (29.202 millones), según cifras de nueve meses hasta octubre. Esta sería una primera explicación de por qué AWS gana relevancia para su matriz: el peso creciente de la inteligencia artificial generativa (GenAI, según su apócope en inglés). La segunda: Amazon es líder en los servicios de infraestructura cloud , pero en este nuevo negocio corre rezagada frente a Open AI, Microsoft, Google y Meta. Confía en sus recursos para competir mano a mano.
Este ha sido, en síntesis, el contenido de la conferencia re-Invent 2024, que AWS celebró en Las Vegas. Mark Garman, recientemente ascendido a consejero delegado, sacó pecho al afirmar que la GenAI necesitará procesar en la nube enormes volúmenes de datos para ser viable, escalable y flexible, tres atributos aún incompletos. Al menos en la actual prevalencia de entrenamiento de las máquinas.
En esta edición de re-Invent, Garman introdujo una novedad en el enfoque de AWS: admitió que la fase de inferencia adquiere importancia creciente; es decir, que una vez entrenada, la máquina está en condiciones de suministrar conclusiones e incluso de tomar decisiones. A esto se llama inferencia .
Inicialmente, sus competidores han ganado la delantera a AWS en la IA generativa
No se trata de algo individual y separado, si bien puede conseguirse con dispositivos al alcance del usuario, y una parte de la industria presiona en esa línea, que está a su alcance. Es, dijo, un componente que debe integrarse en la trama de aplicaciones, lo que requiere volver a pensar los flujos de trabajo. He ahí el mensaje: AWS quiere jugar en ambos terrenos. Y ha encontrado un atajo gracias a su inversión de 8.000 millones de dólares en Anthropic –empresa en la que Google es minoritaria– y a la incorporación de agentes IA para automatizar las tareas de generación, documentación y testeo de código, que de esto se ocupa la IA, dejando a otros la especulación acerca de una superinteligencia que estaría de camino.
Esto va de economía, no de futurismo: estratégicamente, AWS intenta reducir su dependencia con respecto a los procesadores de Nvidia y, de paso, controlar la escalada de costes de su computación en la nube. Lleva años forjando una infraestructura propia para el entrenamiento y la inferencia en GenAI: en el 2015 adquirió –por solo 350 millones, un chollo– la empresa israelí Annapurna Labs, y en Las Vegas acaba de presentar su nuevo chip Trainium 2, con el que un servidor de gran potencia y tecnología propia podría alcanzar el billón de parámetros modelizables.
Menos explícita ha sido AWS al presumir del llamado proyecto Rainer, un superordenador basado en cientos de miles de esos procesadores, al que define como “megaestructura de arquitectura distribuida”, un clúster diseminado por localizaciones interconectadas. Esta fórmula minimizaría los tiempos de respuesta y repartiría (sin aliviar) las inquietantes consecuencias de su consumo energético. Cuando el proyecto madure –no hay fechas–podrá disponer de una capacidad de cálculo cinco veces superior a la que hoy tiene.
Tiene por delante dos campos de batalla: cómo entrenar y mejorar el aprendizaje
En su búsqueda de cierta autonomía con respecto a Nvidia –Google y Meta persiguen algo parecido mientras Microsoft parece contenta con sus cartas–, AWS está centrada en lo antedicho, una infraestructura básicamente propia. Lo que no obsta para que sus nuevos modelos, optimizados para Trainium, hayan sido entrenados con software de Nvidia. Se aguarda la llegada de otros modelos multimodales, capaces de procesar a la vez texto, voz, imagen y vídeo, no antes de mediados del año entrante.