En su reporte ambiental anual, Google informó que las emisiones de gases de efecto invernadero aumentaron un 48 % en comparación con 2019. Detrás de esa cifra hay una explicación clara: el desarrollo de la inteligencia artificial y la excesiva demanda de energía que necesitan los centros de datos que nutren a esta nueva tecnología.
Este año, la empresa dejó en claro que sus productos y servicios estarían todos integrados con la inteligencia artificial. Anunciaron Gemini, su chatbot de IA, más inteligente y recargado; y un buscador de Google que ordena los resultados y resume la información importante para que no tengas que buscar más en cada link.
Pero estas innovaciones tienen un costo. Particularmente en términos ambientales. Las emisiones de la empresa en 2023 registraron un aumento de 13 % en comparación con el año anterior. Según detallan en el reporte, estos números se deben a un aumento en el consumo de energía de los centros de datos y de las emisiones de la cadena de suministro incentivados por el desarrollo de la inteligencia artificial.
“Atrás de la inteligencia artificial hay un montón de impactos ambientales, de necesidad, de recursos que tenemos que pensar en tiempos donde nuestro desafío tiene que ver con la eficiencia energética”, comenta en diálogo con RED/ACCIÓN Estefanía González del Fierro, subdirectora de campañas de Greenpeace Andino. “Aunque la tecnología puede darnos respuestas a la crisis climática, también estamos viendo que es muy consumidora de los mismos recursos que hoy día son críticos”, profundiza.
Además, el informe de Google señala que el consumo total de electricidad de los centros de datos de la empresa creció un 17 % en 2023. Pero ¿para qué se necesitan estas infraestructuras? Los modelos de inteligencia artificial requieren de grandes conjuntos de datos para entrenarse. Estos centros, entonces, son instalaciones dedicadas a alojar servidores y equipos de red para almacenar, procesar y distribuir estos contenidos.
Y estos aumentos son solo el comienzo. Una investigación reciente de Electric Power Research sugiere que la tasa anual de crecimiento en el uso de electricidad por esta industria podría variar entre el 3,7 % y el 15 % hasta el año 2030, dependiendo del ritmo de adopción de nuevas tecnologías como la inteligencia artificial generativa, sistema con el que se alimentan herramientas (como Gemini).
“Estamos transitando un cambio en el uso de modelos generativos de IA simplemente porque a la gente les parece que deben hacerlo, sin tener en cuenta la sostenibilidad”, explicó a The Guardian Sasha Luccioni, autora de un estudio sobre las emisiones de GPT. “Hay muchos enfoques y métodos de IA eficientes y de bajo impacto que se han desarrollado a lo largo de los años, pero la gente quiere utilizar la IA generativa para todo”, profundiza.
Además de energía, los centros de datos utilizan agua en los sistemas de refrigeración por evaporación para evitar el sobrecalentamiento de los equipos. Un estudio —no revisado por expertos—, dirigido por investigadores de la Universidad de California en Riverside, calcula que el entrenamiento de GPT3 en los centros de datos en Estados Unidos podría haber consumido 700.000 litros de agua dulce.
Con estos números sobre la mesa, la empresa expresó que se propuso alcanzar las emisiones cero neto para el año 2030. Para ello, quieren reducir un 50 % sus emisiones y planean invertir en tecnologías que sean ambientalmente sostenibles y amigables. Sin embargo, también ven a este objetivo como algo “extremadamente ambicioso” y que “no será fácil” debido a la incertidumbre en torno al futuro impacto medioambiental de la IA.
“Tenemos que pensar que cada nueva tecnología está vinculada al uso de recursos naturales”, expresa González del Fierro. “Hay que ver si es que esa es la manera más responsable y eficiente de estar usando los recursos finitos que tiene nuestro planeta, específicamente en un momento donde lo que tenemos que hacer es bajar nuestras emisiones”, concluye.