En el Generative AI Summit en Silicon Valley 2025, Vishal Sarin, fundador y CEO de Sagence AI, abordó un asunto crucial en el desarrollo de la inteligencia artificial generativa: la elevada demanda energética que esta tecnología exige. Durante una entrevista con Tim Mitchell, líder en el AI Accelerator Institute, Sarin subrayó la urgente necesidad de optimizar la eficiencia energética para desbloquear el verdadero potencial de la IA generativa.
El CEO de Sagence AI planteó que, a pesar de las oportunidades sin precedentes que presenta esta tecnología, se enfrenta a un grave obstáculo: sus altos requerimientos energéticos. Según Sarin, para que la inteligencia artificial generativa sea económicamente viable, es esencial fomentar la innovación en el ámbito de la eficiencia energética, lo que implica repensar todos los aspectos de su arquitectura, desde los chips hasta los sistemas de refrigeración.
En su conversación, se exploraron diversas áreas que podrían beneficiarse de mejoras significativas en el consumo energético a lo largo de la cadena de la inteligencia artificial. Aunque existen opciones en la generación y distribución de energía, Sarin resalta que el foco principal debe ser la computación y la memoria, donde se consume la mayor parte de la energía debido a la transferencia continua de datos. La introducción de la computación en memoria, según él, podría disminuir tanto los costos como el consumo energético.
Este concepto busca integrar más estrechamente el proceso de cómputo con la memoria, alterando el enfoque tradicional que mantiene ambas funciones separadas. Esta división es responsable de un alto consumo energético por el constante movimiento de datos. La implementación de esta innovación promete mejorar de manera significativa la eficiencia energética, especialmente en las tareas de inferencia de la inteligencia artificial generativa.
Sarin también habló sobre el papel de los aceleradores de hardware, como las GPU, que aunque son vitales para el rendimiento, también contribuyen al elevado consumo de energía. Argumentó que para superar las limitaciones actuales, es necesario combinar las capacidades de estos aceleradores con innovaciones arquitectónicas, como la computación en memoria. Adicionalmente, sugirió que los modelos de lenguaje pequeños (SLMs) podrían representar parte de la solución, ofreciendo alternativas más ligeras que reducen la necesidad de infraestructuras masivas.
Otro punto crítico mencionado es la necesidad de innovar en los sistemas de refrigeración y energía, ya que la infraestructura de alta densidad requeridas por la inteligencia artificial genera una considerable cantidad de calor. Las soluciones tradicionales para el enfriamiento han quedado obsoletas, haciendo necesario el desarrollo de tecnologías como el enfriamiento líquido y sistemas de recuperación de energía para mantener el consumo energético bajo control.
Mirando hacia el futuro, Sarin se mostró optimista sobre las capacidades de la industria para afrontar estos retos. La búsqueda de eficiencia y sostenibilidad se ha convertido en una prioridad, lo que promete un futuro más viable y productivo para el AI generativo. Para Sarin, romper las barreras en eficiencia energética no es sólo una opción, sino una necesidad. Estas innovaciones serán determinantes para el valor transformador que la inteligencia artificial generativa pueda ofrecer a largo plazo.