/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

I data center sono energivori? Raffreddiamoli a liquido

I data center sono energivori? Raffreddiamoli a liquido

Un terzo dell’energia usata nei centri elaborazione dati su cui gira anche l’IA generativa è consumata dai sistemi di raffreddamento. Una soluzione Lenovo adottata da ENEA e Cineca riduce drasticamente i consumi

29 novembre 2024, 08:29

Di Alessio Jacona*

ANSACheck
I data center sono energivori? Raffrediamoli a liquido - RIPRODUZIONE RISERVATA

I data center sono energivori? Raffrediamoli a liquido - RIPRODUZIONE RISERVATA

L’intelligenza artificiale generativa ha fame di energia. Secondo una ricerca pubblicata su Science Partner Journal, il fabbisogno energetico per far funzionare modelli come ChatGPT, Gemini o Midjourney raddoppia ogni 100 giorni, mentre per l’AIEA, Agenzia internazionale dell'energia, i data center consumano già fino al 2% dell'elettricità globale. È un problema complesso, già ora urgente e destinato a complicarsi ancora: l’evoluzione dei sistemi di IA, delle infrastrutture hardware popolate da migliaia di processori e sistemi di archiviazione sempre più potenti, e poi ancora il successo stesso dell’IA generativa e la sua adozione, non faranno che aumentare la richiesta di energia. È solo questione di tempo.

E se da un lato c’è chi - come ad esempio Microsoft e Google - ha già annunciato che investirà miliardi di dollari per costruire Reattori Nucleari Modulari di nuova generazione con cui alimentare i propri data center, dall’altra c’è chi studia e sviluppa sistemi per efficientare i consumi e le prestazioni quest’ultimi.

Come? Innovando i sistemi di raffreddamento. Già, perché migliaia di processori impilati uno sopra all’altro generano soprattutto una cosa: calore. Finora questo problema è stato trattato soprattutto con sistemi di raffreddamento ad aria, come testimonia l’assordante rumore di ventole che si sente ogni volta che vengono mostrate immagini girate in un data center o in un supercomputer come il Leonardo in funzione al Cineca di Bologna. Frastuono a parte, il difetto principale di questa soluzione è che consuma tanta energia, come ne consuma il sistema che deve poi estrarre il calore dalle sale dove sono i server, al punto che solo due terzi della corrente elettrica consumata in queste infrastrutture serve e a far funzionare i computer: il resto è tutto sprecato per raffreddarne i bollori.

«I data center continuano a moltiplicarsi quindi è assolutamente necessario provare delle modalità nuove per gestire questa evoluzione» conferma Alessandro de Bartolo, country general manager e amministratore delegato Infrastructure Solutions Group, la divisione di Lenovo focalizzata su server, storage e altre soluzioni per i centri di elaborazione dei dati. Per lui, la soluzione è ricorrere al raffreddamento a liquido. «Ci lavoriamo e al applichiamo da dieci anni - spiega - ma ora la necessità di utilizzare questa tecnologia di estrazione del calore, che chiamiamo Lenovo Neptune, si fa più pressante che mai. Già oggi i nostri impianti sono in grado di estrarre calore per il 98% dal sistema di elaborazione dei dati, ma lo scorso ottobre abbiamo annunciato un sistema che arriva a estrarre il 100% del calore prodotto, consentendo di ridurre ulteriormente il consumo energetico».

Ridurre i consumi è una questione di costi, ma anche e soprattutto una questione di sostenibilità, perché la produzione di energia ha un forte impatto sull’ambiente. Questo spiega anche perché in Italia ENEA, l'Agenzia nazionale per le nuove tecnologie, l'energia e lo sviluppo economico sostenibile, abbia scelto Lenovo per installare un sistema High performance computing (HPC) a Portici (Napoli), dove servirà per accelerare la ricerca sulle energie pulite e in particolare sulla fusione nucleare, portando la capacità di calcolo dagli attuali 1.01 a oltre 6.5 Petaflop (un Petaflop equivale a mille trilioni di calcoli al secondo).

«Quando si tratta di fornire sistemi di elaborazione dei dati ai grandi centri di ricerca delle università italiane e nel resto del mondo - spiega sempre De Bartolo - la questione della limitazione del consumo energetico è diventata uno dei principali elementi discriminanti nella scelta delle soluzioni, perché la visione non è più soltanto procurarsi la miglior tecnologia al miglior prezzo, ma anche la miglior tecnologia che consuma di meno. In Italia - continua - siamo partiti l'anno scorso con il progetto del Centro di Supercalcolo (SCC) del Centro Euro-Mediterraneo sui Cambiamenti Climatici (CMCC) a Lecce, che utilizzando le nostre soluzioni sarà in grado di potenziare le attività di ricerca mentre al contempo si ottimizza l’utilizzo dell’energia; poi c’è il progetto con ENEA e poi, ancora, c’è anche Pitagora, appena annunciato».

De Bartolo si riferisce al nuovo sistema che verrà installato nel Tecnopolo di Bologna grazie a una collaborazione con Cineca, EUROfusion, il consorzio europeo che ha l’obiettivo di progettare impianti tecnologici in grado produrre energia elettrica sfruttando l’energia da fusione entro il 2050, ed con ENEA che del consorzio è membro. Pitagora è un HPC - anche questo raffreddato a liquido - da  27 milioni di miliardi di operazioni al secondo che sarà al servizio alla comunità scientifica.

«Oltre a quelli elencati - chiarisce De Bartolo - un altro vantaggio derivante dall'utilizzo dei sistemi di raffreddamento a liquido è la maggiore continuità operativa, che dipende da due fattori: in primo luogo, il sistema riduce drasticamente i rischi di surriscaldamento, che sono la principale causa di problemi all'operatività di un HPC. Secondo, con la rimozione delle ventole togliamo quelle che di fatto sono le uniche parti in movimento e soggette ad usura o rotture nei server». Infine, il sistema di raffreddamento stesso è progettato per consumare meno energia possibile, perché «è strutturato in modo da utilizzare acqua a temperatura ambiente, che quindi non richiede costosi ed energivori sistemi di refrigerazione».

*Giornalista esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza