ChatGPT di Open AI ha reso popolare la IA generativa con la sua interfaccia chatbot facile da usare e, nel giro di un anno, IA rivali come Google Bard e Bing Chat hanno trovato casa in tutto, dalle app Workspace a Google Chrome. Può essere piuttosto costoso e dispendioso in termini di risorse calcolare le risposte e addestrare modelli linguistici di grandi dimensioni come GPT3.5 di Open AI, che alimenta la versione gratuita di ChatGPT. Tuttavia, questo calcolo assorbe anche quantità significative di energia e genera molto calore come sottoprodotto, necessitando di conseguenza di grandi quantità di acqua per la sua dissipazione.
Microsoft ha investito il suo primo miliardo in Open AI nel 2019, due anni prima che ChatGPT conquistasse il mondo. I data center del gigante della tecnologia sono stati utilizzati per addestrare GPT-4 su enormi quantità di contenuti generati dall’uomo. Nel 2020, Microsoft ha rivelato che il supercomputer per questo compito utilizzava 285.000 core di semiconduttori convenzionali e 10.000 processori grafici, fondamentali per i carichi di lavoro dell’intelligenza artificiale.
Comprensibilmente, tale hardware genera molto più calore rispetto al normale telefono Android, che rimane fresco grazie alla dissipazione del calore attraverso il pannello posteriore. Per trasportare via questo calore su larga scala di solito è necessario che acqua o altri liquidi refrigeranti vengano pompati in proporzioni gigantesche.
I datacenter per la IA generativa consumano immani quantità di acqua
Un recente rapporto di Fortune sull’impatto ambientale dei chatbot IA menziona che l’utilizzo di acqua da parte di Microsoft per il raffreddamento dei data center è aumentato del 34% su base annua, tra il 2021 e il 2022. Ora ammonta a ben 1,7 miliardi di litri d’acqua, ovvero fino a 2.500 piscine olimpioniche.
Recentemente, il vicepresidente e presidente di Microsoft, Brad Smith, ha rivelato che GPT-4 è stato “creato” nel data center dell’Iowa, raffreddato dall’acqua dei fiumi Raccoon e Des Moines. Microsoft afferma di utilizzare l’acqua solo quando la temperatura supera i 30° C, ma anche in quel caso, l’azienda ha pompato 11,5 milioni di litri d’acqua nel cluster pochi mesi prima che GPT-4 fosse completato: ovvero il 6% del consumo idrico dell’intero distretto.
Comprensibilmente, la città dell’Iowa è preoccupata all’idea di ospitare altri progetti Microsoft finché la società non promette di ridurre il picco di consumo di acqua rispetto ai livelli attuali. Ciò nonostante il significativo contributo di Microsoft alla città sotto forma di tasse che ne sostengono gli investimenti.
Un ricercatore dell’Università della California stima che, in base all’uso, OpenAI utilizzi 500 ml (la classica bottiglietta) per ogni 5-50 query che gli utenti pongono all’IA generativa. La statistica tiene conto anche dell’acqua utilizzata nella produzione di energia per il data center, ma la variazione è dovuta alle temperature stagionali che influiscono sui requisiti di raffreddamento e all’ubicazione delle strutture Microsoft che gestiscono la richiesta.
Nonostante la segretezza iniziale che circonda l’impatto ambientale dell’azienda, i rapporti annuali e la promessa di diventare carbon negative e water positive entro il 2030 hanno aiutato Microsoft a diventare più pulita. Speriamo solo che l’azienda diffonda consapevolezza sull’impatto ambientale dell’intelligenza artificiale che è per lo più gratuita. E speriamo che anche Google faccia lo stesso, vista la portata del nuovo LLM Gemini che alimenterà la sua IA generativa del futuro.