![]()
Gianfranco Di Marco, Power Transistor Sub-Group, Chief of staff and Technical Communication Manager di STMicroelectronics: “Mettere gli algoritmi di machine learning non sul cloud ma sull’oggetto pensante”
Il consumo elevato di energia per i data center, che aumenta con l’utilizzo dell’intelligenza artificiale. Ne parla a SostenibileOggi Gianfranco Di Marco, Power Transistor Sub-Group, Chief of staff and Technical Communication Manager di STMicroelectronics, colosso italo-francese dei semiconduttori, che nelle scorse settimane ha presentato la “ST Edge AI Suite“, un set completo e integrato di strumenti software che offre a sviluppatori e aziende un modo più semplice ed economico per incorporare prodotti ST abilitati per l’intelligenza artificiale in applicazioni industriali, automotive, di elettronica di consumo e di comunicazione. Recentemente la Commissione Ue ha approvato un contributo da parte dello Stato italiano di due miliardi di euro per STMicroelectronics per costruire un nuovo impianto di semiconduttori avanzati a Catania. Il totale dell’investimento per questo impianto integrato di produzione di chip sarà di cinque miliardi di euro.
Come si affronta il carico energetico necessario per l’attività dei data center?
È un tema complesso, il consumo va solo ad aumentare, l’uso dell’IA richiede sempre più energia elettrica per processare i dati e sempre più acqua ed energia elettrica per smaltire il calore generato. Per spendere meno nel raffreddamento, c’è chi ha messo i data center in Islanda, ad esempio. Il fenomeno è chiaro: i circuiti integrati che elaborano con velocità crescente questi dati si surriscaldano a causa delle dissipazioni di energia all’interno del chip, energia che si degrada in calore e che richiede sistemi di condizionamento dell’aria per controllare la temperatura all’interno dei data center. Come STMicroelectronics, non abbiamo soluzioni, ma possiamo offrire strumenti per limitare le dimensioni del problema.
In che modo?
Ad esempio, riducendo dove possibile l’uso del cloud e dei grandi database. Come? Mettendo gli algoritmi di machine learning non sul cloud ma sull’oggetto pensante. STMicroelectronics ha sviluppato degli algoritmi che fanno leva sull’intelligenza in locale, sull’oggetto che si vuole dotare di IA, e che pertanto non necessitano di collegarsi fisicamente a siti esterni, che siano il cloud o altri data center. I vantaggi sono immediati in termini di privacy, sicurezza dei dati, latenza e i costi a livello di energia si abbattono, perché i dati non viaggiano su e giù per la rete. Questo sistema si chiama EDGE AI e consiste nell’implementazione dell’intelligenza artificiale localmente per elaborare i dati laddove vengono raccolti, anziché trasferirli in una struttura di cloud computing centralizzata o in un datacenter esterno. L’intelligenza artificiale all’Edge accelera il processo decisionale dei dispositivi, che sono così in grado di rispondere prontamente e in modo intelligente, senza doversi collegare al cloud.
È l’unico strumento per consumare meno energia?
Un altro strumento che STMicroelectronics offre è inteso a migliorare l’efficienza dei sistemi di alimentazione proprio dei server e router nei data center. Proponiamo dei dispositivi di potenza intrinsecamente più efficienti che aiutano ad abbassare drasticamente le perdite dovute ai processi di conversione di energia all’interno degli alimentatori. Ciò si traduce in una semplificazione e riduzione dei costi dei sistemi di raffreddamento. Tali dispositivi, infatti, migliorano l’efficienza nel convertire la tensione e la corrente fornite dalla rete ai valori richiesti per alimentare i server riducendo le perdite e quindi il calore generato. Quindi una riduzione delle temperature di esercizio comporta un minore dispendio di energia ed una bolletta energetica più leggera. Tali dispositivi sono impiegati oggi per prolungare l’autonomia delle batterie dell’auto elettrica e rendere più rapida la ricarica tramite le colonnine. Il loro impiego nei data server risponde alla necessità di ridurre i consumi dovuti ad un aumento esponenziale nell’uso dell’IA e del cloud computing.