Construyendo IA de manera sostenible Parece una quimera, ya que los gigantes tecnológicos que anteriormente hicieron promesas de reducir las emisiones se han apresurado a construir enormes centros de datos impulsados por combustibles fósiles.
La prisa por desarrollar la IA a toda costa se ha visto reforzada por la administración Trump, que también está haciendo retroceder las protecciones medioambientales.
A pesar de estos obstáculos, Sasha Luccioni, investigadora de sostenibilidad de la IA, cree que la demanda de una mayor transparencia en la IA, tanto por parte de empresas como de individuos, es mayor que nunca por parte del cliente.
Luccioni se ha convertido en líder en el intento de crear más transparencia sobre las emisiones y los impactos ambientales de la IA en sus cuatro años en Hugging Face, una empresa de IA, incluida la creación de una tabla de clasificación que documenta la eficiencia energética de los modelos de IA de código abierto. También ha criticado abiertamente a las principales empresas de inteligencia artificial que, según ella, ocultan deliberadamente al público información sobre energía y sostenibilidad.
Ahora está iniciando Sustainable AI Group, una nueva empresa con el ex jefe de sostenibilidad de Salesforce, Boris Gamazaychikov. Se centrarán en ayudar a las empresas a responder, entre otras cosas, «¿cuáles son las palancas con las que podemos jugar para hacer que los agentes sean un poco menos malos?» Luccioni también está interesada en descubrir las necesidades energéticas de diferentes tipos de herramientas de inteligencia artificial, como la traducción de voz a texto o de foto a video, un área que, según ella, hasta ahora no ha sido suficientemente estudiada.
Luccioni se sentó exclusivamente con WIRED para hablar sobre la demanda de IA sostenible y qué quiere ver exactamente de las Big Tech.
Esta entrevista ha sido editada para mayor extensión y claridad.
WIRED: Escucho mucho de personas individuales que están preocupadas por el medio ambiente y el uso de la IA, pero no escucho tanto de empresas que piensan en esto. ¿Qué ha escuchado específicamente de personas que trabajan con IA en sus negocios y qué les preocupa?
Sasha Luccioni: En primer lugar, están recibiendo mucha presión de los empleados, y de la junta directiva y de los directores, del tipo “es necesario cuantificar esto”. Sus empleados dicen: «Nos estás obligando a usar Copilot. ¿Cómo afecta eso a nuestros objetivos ESG?»
Para la mayoría de las empresas, la IA se ha convertido en una parte fundamental de su oferta comercial. En ese caso, deben comprender los riesgos. Tienen que entender dónde se ejecutan los modelos. No pueden seguir usando modelos en los que ni siquiera conocen la ubicación de los centros de datos o la red a la que están conectados. Tienen que saber cuáles son las emisiones de la cadena de suministro, las emisiones del transporte, todas estas cosas diferentes.
No se trata de no utilizar la IA. Creo que ya hemos superado eso. Se trata de elegir los modelos correctos, por ejemplo, o enviar la señal de que la fuente de energía es importante, para que los clientes estén dispuestos a pagar un poco más por centros de datos que funcionan con energía renovable. Hay maneras de hacerlo y es cuestión de encontrar a los creyentes en los lugares correctos.
También me imagino que para las empresas globales, la situación de la sostenibilidad es muy diferente a la de Estados Unidos, ¿verdad? Puede que al gobierno de Estados Unidos esto no le importe una mierda, pero a otros gobiernos ciertamente sí les importa.
En Europa, tienen la Ley de IA de la UE. La sostenibilidad ha sido una parte bastante importante de esto desde el principio. Pusieron un montón de cláusulas allí y ahora están saliendo las primeras iniciativas de presentación de informes.
Incluso Asia está intentando ser más transparente. La Agencia Internacional de Energía ha estado haciendo estos informes. [on AI and energy use]. Estuve hablando con ellos y me dijeron que otros países se dan cuenta de que la AIE obtiene sus números de los países, y los países no tienen estos números para los centros de datos específicamente. No pueden tomar decisiones de cara al futuro porque necesitan los números para saber: «Está bien, eso significa que necesitamos X capacidad, en los próximos cinco años», o lo que sea. [Some countries] han comenzado a presionar a los constructores de centros de datos.



