¿Estamos desestimando el gasto en IA antes de que aterrice el 6x?
Resumen
El artículo argumenta en contra de descartar el gasto actual en IA a pesar de las narrativas sobre el estancamiento y el alto gasto de capital, señalando que los críticos están juzgando modelos entrenados con hardware de generación anterior. El análisis de las asignaciones de empaquetado CoWoS de TSMC muestra un aumento proyectado de 117,000 obleas en 2023 a 1 millón para 2026, lo que se traduce en un aumento de aproximadamente seis veces en la capacidad global de chips de IA para 2026.
Sin embargo, existen retrasos significativos entre la finalización de un chip y su puesta en marcha, incluyendo cuellos de botella físicos como los problemas de refrigeración líquida. Por lo tanto, los modelos avanzados actuales, como Opus 4.5 y Gemini 3, que muestran saltos cualitativos, probablemente fueron entrenados con la base de cómputo de 2024 (alrededor de 36 exaFLOPs).
El autor enfatiza que la gran ola de cómputo ordenada durante la reciente euforia aún no ha finalizado sus ejecuciones de entrenamiento, lo que implica que la próxima generación de rendimiento será mucho más avanzada, apuntando hacia un futuro de "ZettaFLOP" para 2030.
(Fuente:Martin Alderson)