L’AI Action Summit di Parigi ha avuto l’indubbio merito di sollecitare e incrementare notevolmente le discussioni e il confronto sull’intelligenza artificiale, ponendo al centro dell’attenzione molteplici elementi riguardo al futuro di questa tecnologia, dagli investimenti agli aspetti etici, dalla regolamentazione ai dibattiti su quali modelli linguistici abbiano un miglior rapporto costo-prestazioni, fino ai grandi interrogativi sulla prossima generazione rappresentata dall’AGI (intelligenza artificiale generale).
Nell’ambito delle prospettive analizzate, molto si è discusso su quale sia il ruolo che può svolgere l’Europa, stretta tra i due attori oggi dominanti USA e Cina, e su quali elementi sia possibile costruire un approccio continentale caratterizzante e vincente.
Come player europeo, ma non solo per tale ragione, riteniamo che l’Europa sia sulla buona strada per competere efficacemente, grazie ad alcuni vantaggi specifici, sfruttando ad esempio la presenza di aziende software AI leader nello sviluppo di LLM come Mistral AI, Aleph Alpha o l’italiana ASC27. Inoltre, il nostro continente può contare su un altro aspetto peculiare: un approccio alla sostenibilità strettamente correlato a un mix energetico che conosce pochi pari a livello mondiale.
Un vantaggio competitivo che, per concretizzarsi, deve partire da un’analisi corretta di quali parametri vadano monitorati quando si tratta del legame tra AI e impronta di carbonio.
I molti aspetti dell’impatto ambientale dei data center AI
Per misurare l’impatto ambientale dell’intelligenza artificiale, in particolare quello legato al funzionamento delle GPU in un data center, è necessario tenere conto di tutte le fonti di emissioni. Esistono tre categorie, o scope, identificate dal Greenhouse Gas Protocol:
- Scope 1: emissioni dirette che comprendono, ad esempio, la combustione di elementi provenienti da fonti fossili nei generatori di emergenza, le emissioni di gas refrigeranti o la combustione negli impianti di riscaldamento a gas degli uffici
- Scope 2: emissioni indirette indotte dalla produzione dell’energia elettrica necessaria ad alimentare il data center; queste emissioni dipendono dalle fonti energetiche primarie utilizzate (nucleare, eolico, carbone, gas, ecc.)
- Scope 3: emissioni indirette che comprendono la costruzione del data center, la produzione delle piattaforme GPU, la logistica, la gestione dei rifiuti e così via. Per valutare correttamente l’impatto delle emissioni di carbonio, è essenziale considerare tutti gli Scope e optare per un’analisi del ciclo di vita che copra tutte le fasi: produzione, utilizzo, smaltimento – anche detto approccio “dalla culla alla tomba”.
Un esempio legato alla vita quotidiana rende più chiaro il concetto: un’automobile con motore a combustione emette circa 1 kg di CO2e per 5 km.
Assolutamente vero, ma questo riguarda solo la fase di utilizzo, ovvero le emissioni dirette legate alla combustione del carburante. La domanda successiva dovrebbe essere: quanta CO2e è stata emessa durante la produzione dell’auto? È necessario, quindi, calcolare l’ammortamento di questo valore su 100.000 km (chilometraggio medio previsto per un veicolo) e poi sommarlo con 1 kg di CO2e per 5 km. Un vero grattacapo!
Lo stesso vale per il settore ICT. Ecco perché, dopo 12 mesi di sviluppo, abbiamo lanciato il Carbon Calculator per misurare accuratamente le emissioni a livello di servizi Cloud, tenendo conto delle specificità locali come il mix energetico del Paese o l’efficienza energetica del data center in cui operiamo.
Per quanto riguarda la produzione, le piattaforme che utilizzano le GPU sono state prese in considerazione utilizzando le emissioni di carbonio “dalla culla al cancello” dei fornitori di componenti, integrate da valori provenienti da studi di settore quando non erano disponibili.
GPU vs CPU, training vs inferenza
L’AI comprende diverse aree: Deep learning, Natural Language Processing fino ai Large Language Models (LLM).
Non tutti questi aspetti richiedono le medesime prestazioni di calcolo né la stessa quantità di dati da elaborare. L’addestramento di un LLM richiede server farm centralizzate su iperscala dotate di decine di migliaia di GPU (come minimo!), mentre la fase di inferenza (fase di utilizzo) richiede capacità di calcolo inferiori, distribuite geograficamente per essere più vicine all’utente finale.
Lo sviluppo di modelli perfezionati, altamente specializzati, consentirà di trattare richieste specifiche in modo molto efficiente. Non bisogna però giungere a conclusioni affrettate che ci portano a considerare che l’adozione crescente dell’AI porterà alla diffusione massiccia di data center ad alta intensità energetica che consumano fino a 1 GW.
Tuttavia, considerando la densità di potenza delle GPU, questo è senza dubbio il momento ideale per la diffusione dell’utilizzo delle tecnologie di raffreddamento ad acqua, che si sono rivelate molto più efficienti e vantaggiose rispetto al raffreddamento ad aria. In OVHcloud, dopo aver introdotto questo concetto più di 20 anni fa e averlo adottato sui nostri 450mila server situati in tutto il mondo, la gestione delle piattaforme di intelligenza artificiale, ad alto consumo energetico, è avvenuta senza problemi.
Una strategia su più fronti per la centralità dell’Europa
Ciò che emerge con ancora maggior forza dopo il Summit di Parigi è che la centralità dell’Europa nel futuro (ma anche nel presente) dell’AI passa attraverso alcune scelte strategiche fondamentali, che comprendono un patto virtuoso tra tutte le parti in gioco, una valutazione corretta della migliore collocazione delle infrastrutture e della loro alimentazione e, naturalmente, un solido piano di investimenti.
Sul primo punto riteniamo che sia cruciale una stretta collaborazione tra fornitori di servizi cloud, sviluppatori di AI, utenti finali, accademici e pubblica amministrazione per la transizione verso un’IA più attenta all’ambiente, in linea con i temi e la call to action del Summit. I provider stanno facendo la loro parte, ma sono gli utenti a dover assumere un ruolo sempre più attivo, richiedendo o verificando le informazioni sui propri consumi legati all’intelligenza artificiale, così da assicurarsi la trasparenza necessaria nella transizione verso una tecnologia realmente sostenibile, che – come abbiamo visto – presuppone di avere un quadro completo ed accurato della situazione.
Esiste poi un tema di localizzazione ottimale di strutture e risorse: si deve scegliere con attenzione in quale Paese, in quale data center eseguire l’intelligenza artificiale, dove adottare le GPU, che tipo di energia utilizzare considerando il mix del Paese e le necessità di ridurre l’impatto ambientale, che tipo di raffreddamento implementare – ad aria oppure, con sempre maggiore frequenza, ad acqua. Tutto ciò ha un enorme impatto sulle emissioni dell’AI nel training dei modelli e nell’inferenza.
L’approccio che riteniamo più corretto è quello di scegliere il posto giusto per addestrare modelli LLM, ma ogni paese deve compiere tutti gli sforzi necessari per ridurre gli impatti di carbonio durante il processo di inferenza, che sarà necessariamente il più locale possibile.
Conclusioni
Infine, una strategia ambiziosa come quella che l’Europa si trova a dover perseguire per garantirsi la leadership – anche in ambito di sostenibilità – nell’AI deve essere supportata da un piano di investimenti chiaro e concretamente attuabile, così da poter sfruttare quei fattori vincenti che la caratterizzano, quali il talento, la visione etica e le eccellenze pubbliche e private. In questo senso l’iniziativa InvestAI, volta a mobilitare 200 miliardi di euro, annunciata dalla presidente della Commissione Europea, Ursula von der Leyen, lascia ben sperare.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link