Cerrar

Inteligencia Artificial: Los desafíos energéticos del uso masivo de herramientas IA

La Agencia Internacional de Energía (AIE) alerta sobre los desafíos en el sector energético que plantea el creciente uso de herramientas de Inteligencia Artificial (AI).

La tecnología de Inteligencia Artificial ha revolucionado la vida de todos, desde el uso popular de ChatGPT, la inclusión de funciones como Galaxy AI en los smartphones Samsung s24, Siri en iPhone, aplicaciones como Quik de GoPro que generan reels completos para redes sociales a partir de fotos y videos, recomendaciones personalizadas en plataformas de streaming, se realizan comerciales y películas de alta calidad de imagen con tan sólo una app, entre otros ejemplos.

Sin embargo, detrás de este avance tecnológico se está presentando un dilema importante: el aumento del consumo de electricidad.

Según una investigación publicada por la AIE, el uso de AI puede aumentar significativamente la demanda energética global, que se evalúa que crezca en un 40% en las próximas dos décadas.

Esto se debe a que las aplicaciones que usan algoritmos de inteligencia artificial requieren una gran cantidad de energía para realizar hasta las tareas menos complejas y funcionar de forma óptima.

Cada interacción con una de estas herramientas basadas en AI desencadena una serie de operaciones que necesitan esa energía.

La organización calcula que cerca del 10% de la electricidad generada en el mundo se destina al funcionamiento de servidores y centros de datos, los cuales sustentan el procesamiento de datos para la inteligencia artificial, siendo los principales consumidores de electricidad en todo el mundo.

Esto representa un aumento considerable respecto a años anteriores, y se prevé que la tendencia continúe en alza en los próximos años debido al crecimiento exponencial de la tecnología AI en todos los sectores, poniendo a prueba la capacidad de las infraestructuras actuales para satisfacer la demanda.

Los servidores y los dispositivos que manejan grandes cantidades de datos para entrenar modelos de machine learning y otros algoritmos, como TensorFlow o ChatGPT de Google, consumen una gran cantidad de energía para procesar y almacenar información. Un servidor que maneja 1 petabyte (1 millón de gigabytes) de datos puede consumir hasta 100 kilowatt-horas (kWh) diarias.

A medida que la Inteligencia Artificial se integra cada vez más en los aparatos de uso diario y las tareas del día a día, es fundamental considerar los desafíos energéticos que esto conlleva.

El aumento del consumo eléctrico derivado del uso de herramientas AI plantea retos importantes para los sistemas de generación y distribución de energía, así como para la sostenibilidad ambiental.

La Agencia Internacional de Energía estima que para lograr una transición energética sostenible, es necesario desarrollar tecnologías más eficientes y renovables, como la energía solar o eólica, para satisfacer la creciente demanda de energía. E implementar políticas públicas que fomenten el ahorro energético.

En este sentido, diversas empresas están trabajando en el desarrollo de soluciones más eficientes en cuanto al consumo energético de las herramientas AI. Por ejemplo, Google ha implementado medidas para reducir el impacto ambiental de sus centros de datos.

De la misma forma, otras compañías como Amazon y Microsoft se están comprometiendo para disminuir sus emisiones de carbono, desarrollando estándares y protocolos, teniendo en cuenta sus propios estudios de impacto energético y medioambiental.

Fuente: www.iea.org    

scroll to top