Finanziamenti e agevolazioni

Agricoltura

 

McKinsey: data center, 7 mila miliardi di dollari di investimenti in potenza di calcolo


La potenza di calcolo (compute power) sta emergendo come una delle risorse più critiche di questo decennio, spinta dall’ascesa dell’intelligenza artificiale. Milioni di server operano incessantemente nei data center di tutto il mondo per elaborare i modelli fondamentali e le applicazioni di machine learning che sono alla base dell’AI. Lo studio effettuato da McKinsey indica che, entro il 2030, i data center a livello globale richiederanno investimenti per 6.700 miliardi di dollari per soddisfare la domanda di potenza di calcolo.

Opportunità uniche acquisto in asta

 ribassi fino al 70%

 

L’hardware, i processori, la memoria, lo storage e l’energia necessari per il funzionamento di questi data center sono collettivamente noti come potenza di calcolo. La domanda di questa risorsa è descritta come “inesauribile”.

Questo investimento è suddiviso tra i data center attrezzati per gestire carichi di lavoro AI, che richiederanno un dispendio di capitale previsto di 5.200 miliardi di dollari, e quelli che supportano applicazioni IT tradizionali, per i quali si stimano 1.500 miliardi di dollari di spese in conto capitale.

Complessivamente, ciò si traduce in quasi 7.000 miliardi di dollari di uscite di capitale necessarie entro il 2030, una cifra considerata sbalorditiva. Questo dato si basa sul modello McKinsey Data Center Demand Model, sul McKinsey Data Center Capex TAM Model e su interviste a esperti.

Carichi di lavoro AI vs non-AI: differenze chiave

Sebbene i carichi di lavoro legati all’AI dominino la discussione attuale, le attività di elaborazione non legate all’AI costituiscono ancora una parte significativa delle operazioni dei data center. Questi includono compiti IT aziendali tradizionali come l’hosting web, i sistemi di pianificazione delle risorse aziendali (ERP), la posta elettronica e l’archiviazione di file.

I carichi non-AI sono generalmente meno intensivi in termini di calcolo e possono operare in modo efficiente su unità di elaborazione centrali (CPU), a differenza dei carichi di lavoro AI che richiedono unità di elaborazione grafica (GPU) specializzate o acceleratori AI. Inoltre, i carichi non-AI tendono ad avere pattern di utilizzo più prevedibili e densità di potenza inferiori, il che consente requisiti meno stringenti per il raffreddamento e l’energia. Di conseguenza, i data center focalizzati sull’elaborazione non-AI hanno tipicamente esigenze infrastrutturali, intensità di capitale e considerazioni operative diverse rispetto a quelli ottimizzati per l’AI.

Aste immobiliari

l’occasione giusta per il tuo investimento.

 

potenza calcolo investimenti mckinsey

Prevedere la curva di domanda e gli scenari di investimento

Per prendere decisioni informate sugli investimenti nella potenza di calcolo, le aziende devono innanzitutto prevedere accuratamente la domanda futura, un compito arduo dato l’ambiente dell’AI in rapida evoluzione. La ricerca indica che la domanda globale di capacità di data center potrebbe quasi triplicare entro il 2030. Di questa domanda prevista, circa il 70 percento deriverà da carichi di lavoro AI. Tuttavia, questa proiezione è soggetta a due incertezze chiave.

Prima incertezza

La prima incertezza riguarda i casi d’uso dell’AI. Il valore dell’AI risiede nel livello dell’applicazione, ovvero nella capacità delle aziende di trasformare l’AI in un impatto aziendale reale e significativo. Se le aziende non riusciranno a creare valore significativo dall’AI, la domanda di potenza di calcolo potrebbe non raggiungere le aspettative. Al contrario, applicazioni AI veramente trasformative potrebbero alimentare una domanda anche maggiore rispetto alle proiezioni attuali.

Seconda incertezza

La seconda incertezza deriva dai cicli di innovazione rapidi e dalle interruzioni. I continui progressi nelle tecnologie AI, come i processori, le architetture dei modelli linguistici di grandi dimensioni (LLM) e il consumo energetico, potrebbero migliorare significativamente l’efficienza. Ad esempio, nel febbraio 2025, DeepSeek, l’azienda cinese attiva negli LLM, ha riferito che il suo modello V3 ha ottenuto miglioramenti sostanziali nell’efficienza di addestramento e inferenza. Nello specifico, DeepSeek ha notevolmente ridotto i costi di addestramento di circa 18 volte e i costi di inferenza di circa 36 volte, rispetto a GPT-4o.

Tuttavia, un’analisi preliminare suggerisce che questi tipi di guadagni di efficienza saranno probabilmente compensati dall’aumento della sperimentazione e dell’addestramento nel mercato AI più ampio. Di conseguenza, i guadagni di efficienza potrebbero non avere un impatto sostanziale sulla domanda complessiva di potenza di calcolo nel lungo termine. Questo concetto si allinea con il paradosso di Jevons, che postula che i miglioramenti nell’efficienza possono portare a un aumento della domanda complessiva. Nel contesto dell’AI, risorse computazionali più efficienti e accessibili potrebbero stimolare una maggiore adozione e utilizzo, potenzialmente compensando le riduzioni anticipate della domanda di calcolo.

Tre scenari di investimento

Data l’incertezza riguardo alle esigenze future di potenza di calcolo, sono stati creati tre scenari di investimento, che vanno da una domanda contenuta a una domanda accelerata.

Nello scenario di crescita accelerata, si prevede l’aggiunta di 205 GW incrementali di capacità di data center legata all’AI tra il 2025 e il 2030, richiedendo una spesa in conto capitale stimata di 7.900 miliardi di dollari.

Lo scenario di base, utilizzato nell’articolo, prevede una crescita della domanda ma non così rapida come nel primo scenario, con un investimento atteso di 5.200 miliardi di dollari. Questo si basa su un aumento previsto di 125 GW incrementali di capacità di data center IA tra il 2025 e il 2030, raggiungendo una domanda totale di 156 GW entro il 2030.

Nello scenario di domanda più contenuta, con 78 GW incrementali aggiunti nei prossimi cinque anni, la spesa in conto capitale totale è di 3.700 miliardi di dollari.

Carta di credito con fido

Procedura celere

 

Questi numeri di investimento, in qualsiasi scenario, sono considerati sbalorditivi. Le stime delle spese in conto capitale sono derivate dal modello proprietario di McKinsey per la domanda di data center, che proietta la capacità in molteplici scenari influenzati da fattori come i vincoli di fornitura di semiconduttori, l’adozione di AI da parte delle imprese, i miglioramenti dell’efficienza e le sfide normative. I requisiti di investimento sono stati calcolati traducendo le proiezioni della domanda di capacità in gigawatt in spese in conto capitale attraverso categorie di costo principali, tra cui l’energia (generazione, trasmissione), l’infrastruttura dei data center (elettrica, meccanica, sito, shell) e l’attrezzatura IT (acceleratori IA, networking, storage).

potenza calcolo investimenti mckinsey

I fattori che alimentano gli investimenti miliardari in potenza di calcolo secondo Mckinsey

Diversi fattori chiave stanno alimentando la necessità di questi enormi investimenti:

  • Adozione di massa dell’AI generativa

I modelli fondamentali che sono alla base della gen AI richiedono risorse di potenza di calcolo significative per l’addestramento e il funzionamento. Sia i carichi di lavoro di addestramento che quelli di inferenza contribuiscono alla crescita dell’infrastruttura, con l’inferenza che dovrebbe diventare il carico di lavoro dominante entro il 2030.

La diffusione di applicazioni basate sull’AI in vari settori, dall’automotive ai servizi finanziari, richiede una potenza di cloud computing massiccia. Man mano che i casi d’uso aumentano, le applicazioni AI diventeranno più sofisticate, integrando modelli fondamentali specializzati adattati a domini specifici.

  • Corsa competitiva all’infrastruttura

Hyperscaler (grandi fornitori di servizi cloud) e imprese stanno correndo per costruire capacità IA proprietarie al fine di ottenere un vantaggio competitivo. Questa competizione sta alimentando la costruzione di sempre più data center. Questi “costruttori” mirano a ottenere un vantaggio competitivo raggiungendo la scala, ottimizzando le stack tecnologiche dei data center e, in ultima analisi, riducendo il costo della potenza di calcolo.

I governi stanno investendo pesantemente nell’infrastruttura AI per migliorare la sicurezza, la leadership economica e l’indipendenza tecnologica.

Dove vanno gli investimenti: gli archetipi degli investitori

Per qualificare la previsione di investimento di 5.200 miliardi di dollari per l’infrastruttura AI, è importante notare che l’analisi probabilmente sottovaluta l’investimento di capitale totale necessario. La stima quantifica l’investimento di capitale solo per tre dei cinque archetipi di investitori nella potenza di calcolo. Questi tre archetipi sono quelli che finanziano direttamente l’infrastruttura e le tecnologie fondamentali necessarie per la crescita dell’IA: costruttori (builders), energizzatori (energizers) e sviluppatori e designer di tecnologia (technology developers and designers).

Aste immobiliari

 il tuo prossimo grande affare ti aspetta!

 

  • Circa il 15 percento (0,8 trilioni di dollari) dell’investimento (relativo ai 5.200 miliardi per l’IA) affluirà ai costruttori per l’acquisizione di terreni e materiali e lo sviluppo del sito.
  • Un altro 25 percento (1,3 trilioni di dollari) sarà allocato agli energizzatori per la generazione e trasmissione di energia, il raffreddamento e le apparecchiature elettriche.
  • La quota maggiore dell’investimento, il 60 percento (3,1 trilioni di dollari), andrà agli sviluppatori e designer di tecnologia, che producono chip e hardware di computing per i data center.

Gli altri due archetipi di investitori, gli operatori (operators), come hyperscaler e fornitori di colocation, e gli architetti AI (AI architects), che costruiscono modelli e applicazioni AI, investono anch’essi nella potenza di calcolo, in particolare in aree come l’automazione basata sull’AI e il software per data center. Tuttavia, quantificare il loro investimento nella potenza di calcolo è impegnativo perché si sovrappone alla loro più ampia spesa in ricerca e sviluppo (R&D).

Per questo motivo, le spese in conto capitale di questi due archetipi per carichi di lavoro AI e non-AI non sono incluse nell’analisi dettagliata delle ripartizioni per archetipo presentata.

Cinque archetipi chiave per gli investimenti in data center secondo McKinsey

Lo studio di McKinsey ha identificato cinque archetipi chiave di investitori che stanno guidando i massicci investimenti di capitale necessari per scalare i data center, ciascuno navigando sfide e opportunità distinte.

1. Costruttori (Builders)

Sono sviluppatori immobiliari, studi di progettazione e aziende di costruzione che espandono e aggiornano la capacità dei data center.

  • Spesa in conto capitale per carichi AI: 800 miliardi di dollari.
  • Spesa in conto capitale per carichi non-AI: 100 miliardi di dollari.
  • Investimenti chiave: acquisizione di terreni e materiali, manodopera qualificata, sviluppo del sito.
  • Opportunità: i costruttori che ottimizzano la selezione del sito possono assicurarsi posizioni privilegiate, ridurre i tempi di costruzione e integrare il feedback operativo precocemente, garantendo una distribuzione più rapida e una maggiore efficienza dei data center.
  • Sfide: la carenza di manodopera potrebbe influire sulla disponibilità di tecnici e operai edili, mentre i vincoli di localizzazione potrebbero limitare le opzioni di selezione del sito. Nel frattempo, l’aumento della densità di potenza dei rack potrebbe creare sfide di spazio e raffreddamento.
  • Soluzioni: i costruttori lungimiranti stanno trovando soluzioni. Alcuni stanno risolvendo la carenza di manodopera adottando progetti modulari che snelliscono il processo di costruzione, come la costruzione fuori sede di componenti di grandi dimensioni che possono essere assemblati sul posto.

2. Energizzatori (Energizers)

Sono aziende che forniscono l’elettricità e i sistemi di raffreddamento essenziali per le operazioni dei data center.

  • Spesa in conto capitale per carichi AI: 1,3 trilioni di dollari.
  • Spesa in conto capitale per carichi non-AI: 200 miliardi di dollari.
  • Investimenti chiave: Generazione di energia (impianti, linee di trasmissione), soluzioni di raffreddamento (raffreddamento ad aria, raffreddamento a liquido diretto al chip, raffreddamento a immersione), infrastruttura elettrica (trasformatori, generatori), connettività di rete (fibra, cavo).
  • Opportunità: Gli energizzatori che scalano l’infrastruttura elettrica e innovano in soluzioni energetiche sostenibili saranno meglio posizionati per beneficiare della crescente domanda di energia degli hyperscaler.
  • Sfide: L’alimentazione dei data center potrebbe subire rallentamenti a causa delle debolezze della rete esistente e la gestione del calore derivante dall’aumento della densità dei processori rimane un ostacolo. Gli energizzatori devono anche affrontare i requisiti di transizione verso l’energia pulita e i lunghi processi di approvazione per la connessione alla rete.
  • Soluzioni: Con oltre 1.000 miliardi di dollari in gioco, gli energizzatori stanno trovando modi per fornire energia affidabile. Stanno facendo investimenti sostanziali in tecnologie emergenti di generazione di energia, tra cui nucleare, geotermia, cattura e stoccaggio del carbonio e stoccaggio di energia a lunga durata. Stanno anche raddoppiando gli sforzi per portare online quanta più capacità possibile, sia da fonti rinnovabili che da infrastrutture energetiche tradizionali, come gas e combustibili fossili. Ciò che sta cambiando è la portata di tale domanda, che conferisce una nuova urgenza nel costruire capacità energetica a velocità senza precedenti. Con l’aumento della domanda, soprattutto di energia pulita, si prevede che la generazione di energia crescerà rapidamente, con le energie rinnovabili proiettate a rappresentare circa il 45-50 percento del mix energetico entro il 2030, rispetto a circa un terzo attuale.

3. Sviluppatori e designer di tecnologia (Technology developers and designers)

Sono aziende di semiconduttori e fornitori IT che producono chip e hardware di computing per i data center. Esempi citati includono Nvidia e Intel per i semiconduttori, e Foxconn e Flex per l’hardware di computing.

Assistenza per i sovraindebitati

Saldo e stralcio

 

  • Spesa in conto capitale per carichi AI: 3,1 trilioni di dollari.
  • Spesa in conto capitale per carichi non-AI: 1,1 trilioni di dollari.
  • Investimenti chiave: GPU, CPU, memoria, server e hardware per rack. Opportunità: Gli sviluppatori e designer di tecnologia che investono in tecnologie scalabili e pronte per il futuro supportate da una chiara visibilità della domanda potrebbero ottenere un vantaggio competitivo nel computing AI.
  • Sfide: Un piccolo numero di aziende di semiconduttori controlla l’offerta di mercato, soffocando la concorrenza. La creazione di capacità rimane insufficiente per soddisfare la domanda attuale. Allo stesso tempo, i cambiamenti nei metodi di addestramento dei modelli AI e nei carichi di lavoro rendono difficile prevedere la domanda futura di chip specifici.
  • Soluzioni: Gli sviluppatori e designer di tecnologia hanno il maggiore potenziale di guadagno nella corsa alla potenza di calcolo perché sono loro a fornire i processori e l’hardware che eseguono il calcolo effettivo. La domanda per i loro prodotti è attualmente elevata, ma le loro esigenze di investimento sono anche le maggiori, superando i 3.000 miliardi di dollari nei prossimi cinque anni. Un piccolo numero di aziende di semiconduttori ha un’influenza sproporzionata sull’offerta del settore, rendendole potenziali colli di bottiglia nella crescita della potenza di calcolo. Questi attori possono mitigare questo rischio espandendo la capacità di fabbricazione e diversificando le catene di approvvigionamento per prevenire colli di bottiglia.

4. Operatori (Operators)

Sono fornitori di cloud, fornitori di colocation, piattaforme GPU-as-a-service e imprese che ottimizzano le loro risorse di computing migliorando l’utilizzo e l’efficienza dei server. Esempi citati includono Amazon Web Services, Google Cloud ed Equinix. Le loro spese in conto capitale per carichi AI e non-AI non sono incluse nell’analisi dettagliata presentata.

  • Investimenti chiave: software per data center, automazione basata sull’IA, silicio personalizzato.
  • Opportunità: gli operatori che scalano in modo efficiente bilanciando ROI, prestazioni e uso energetico possono guidare la leadership del settore a lungo termine.
  • Sfide: applicazioni AI ospitate ancora immature possono offuscare i calcoli del ROI a lungo termine. Le inefficienze nelle operazioni dei data center stanno aumentando i costi, ma l’incertezza nella domanda IA continua a interrompere la pianificazione e le decisioni di approvvigionamento dell’infrastruttura a lungo termine.
  • Soluzioni: Sebbene i data center operino oggi a livelli di alta efficienza, il rapido ritmo dell’innovazione AI richiederà agli operatori di ottimizzare sia il consumo energetico che la gestione dei carichi di lavoro. Alcuni operatori stanno migliorando l’efficienza energetica nei loro data center investendo in soluzioni di raffreddamento più efficaci e aumentando l’impilabilità dei rack per ridurre i requisiti di spazio senza sacrificare la potenza di elaborazione. Altri stanno investendo nello sviluppo di modelli AI stessi per creare architetture che richiedono meno potenza di calcolo per essere addestrate e operate.

5. Architetti AI (AI architects)

Sono sviluppatori di modelli AI, fornitori di modelli fondamentali e imprese che costruiscono capacità AI proprietarie. Esempi citati includono OpenAI e Anthropic. Le loro spese in conto capitale per carichi AI e non-AI non sono incluse nell’analisi dettagliata presentata. Va notato che gli hyperscaler, inclusi nella categoria Operatori (come Amazon Web Services e Google Cloud), stanno anche sviluppando hardware di computing specializzato e investendo sia nei propri prodotti LLM che in quelli di terze parti, attività che si allineano con i ruoli di sviluppatori e designer di tecnologia e architetti IA.

  • Investimenti chiave: Infrastruttura di addestramento e inferenza dei modelli, ricerca sugli algoritmi.
  • Opportunità: Gli architetti AI che sviluppano architetture che bilanciano le prestazioni con requisiti di calcolo inferiori guideranno la prossima ondata di adozione dell’AI. Le imprese che investono in capacità AI proprietarie possono ottenere competitività sviluppando modelli specializzati adattati alle loro esigenze. Sfide: Le questioni di governance dell’AI, inclusi bias, sicurezza e regolamentazione, aggiungono complessità e possono rallentare lo sviluppo. Nel frattempo, l’inferenza rappresenta una componente di costo imprevedibile importante. Inoltre, le imprese stanno affrontando difficoltà nel dimostrare un chiaro ROI dagli investimenti in AI. Soluzioni: Le crescenti richieste computazionali dei modelli AI su larga scala stanno facendo aumentare i costi per il loro addestramento, in particolare per quanto riguarda l’inferenza, ovvero il processo in cui i modelli AI addestrati applicano la conoscenza appresa a nuovi dati non visti per fare previsioni o prendere decisioni. Modelli con capacità di ragionamento avanzate, come o1 di OpenAI, richiedono costi di inferenza significativamente più elevati. Ad esempio, costa sei volte di più per l’inferenza su o1 di OpenAI rispetto al modello non di ragionamento GPT-4o della stessa azienda. Per ridurre i costi di inferenza, le aziende leader nel settore IA stanno ottimizzando le architetture dei loro modelli utilizzando tecniche come le attivazioni sparse e la distillazione. Queste soluzioni riducono la potenza computazionale necessaria quando un modello AI genera una risposta, rendendo le operazioni più efficienti.

Investimenti attuali e l’incertezza del mercato

Nonostante questi requisiti di capitale proiettati, la ricerca mostra che gli attuali livelli di investimento sono in ritardo rispetto alla domanda. In decine di interviste con clienti, è emerso che i CEO sono restii a investire nella capacità di potenza di calcolo ai massimi livelli a causa della visibilità limitata sulla domanda futura. L’incertezza sul fatto che l’adozione dell’AI continuerà la sua rapida ascesa e il fatto che i progetti infrastrutturali abbiano lunghi tempi di realizzazione rendono difficile per le aziende prendere decisioni di investimento informate. Molte aziende non sono sicure se ingenti spese in conto capitale sull’infrastruttura AI oggi produrranno un ROI misurabile in futuro.

Considerazioni critiche per la crescita dell’infrastruttura AI

Mentre le aziende pianificano i loro investimenti in infrastruttura AI, dovranno navigare una vasta gamma di potenziali risultati. In uno scenario di domanda contenuta, la capacità di data center legata all’AI potrebbe richiedere 3.700 miliardi di dollari di spese in conto capitale, limitate da vincoli nella catena di approvvigionamento, interruzioni tecnologiche e incertezza geopolitica. Queste barriere sono mitigate, tuttavia, in uno scenario di domanda accelerata, portando a investimenti fino a 7.900 miliardi di dollari. Rimanere aggiornati sul panorama in evoluzione è fondamentale per prendere decisioni di investimento informate e strategiche.

Alcune delle incertezze che gli investitori devono considerare includono:

  • Interruzioni tecnologiche: scoperte nelle architetture dei modelli, inclusi i guadagni di efficienza nell’utilizzo del calcolo, potrebbero ridurre la domanda prevista di hardware ed energia.
  • Vincoli nella catena di approvvigionamento: carenza di manodopera, colli di bottiglia nella catena di approvvigionamento e ostacoli normativi potrebbero ritardare le connessioni alla rete, la disponibilità di chip e l’espansione dei data center, rallentando l’adozione e l’innovazione complessive dell’AI. Per affrontare i colli di bottiglia nella catena di approvvigionamento per i chip critici, le aziende di semiconduttori stanno investendo capitale significativo per costruire nuove strutture di fabbricazione (fab). Tuttavia, questa costruzione potrebbe subire rallentamenti a causa di vincoli normativi e lunghi tempi di realizzazione da parte dei fornitori di attrezzature a monte.
  • Tensioni geopolitiche: fluttuazioni nelle tariffe e nei controlli sull’esportazione di tecnologia potrebbero introdurre incertezza nella domanda di potenza di calcolo, potenzialmente influenzando gli investimenti in infrastruttura e la crescita dell’AI.

McKinsey: anticipare la domanda di potenza e gli investimenti

Secondo McKinsey, i vincitori dell’era del computing guidata dall’AI saranno le aziende che anticipano la domanda di potenza di calcolo e investono di conseguenza. Le aziende lungo la catena del valore della potenza di calcolo che si assicurano proattivamente risorse critiche, come terreno, materiali, capacità energetica e potenza di calcolo, potrebbero ottenere un vantaggio competitivo significativo.

Opportunità unica

partecipa alle aste immobiliari.

 

Investimenti: un approccio a tre pilastri

Per investire con fiducia, possono adottare un approccio a tre pilastri.

Primo, gli investitori dovranno comprendere le proiezioni della domanda in un contesto di incertezza. Le aziende dovrebbero valutare precocemente le esigenze di computing AI, anticipare potenziali cambiamenti nella domanda e progettare strategie di investimento scalabili che possano adattarsi all’evoluzione dei modelli AI e dei casi d’uso.

Secondo, gli investitori dovrebbero trovare modi per innovare sull’efficienza del calcolo. Per fare ciò, possono prioritizzare gli investimenti in tecnologie di computing efficienti in termini di costi ed energia, ottimizzando le prestazioni e gestendo contemporaneamente il consumo energetico e i costi dell’infrastruttura.

Terzo, possono costruire resilienza sul lato dell’offerta per sostenere la crescita dell’infrastruttura AI senza eccessive estensioni di capitale. Ciò richiederà agli investitori di assicurarsi input critici come energia e chip, ottimizzare la selezione del sito e costruire flessibilità nelle loro catene di approvvigionamento.

Trovare il giusto equilibrio tra crescita ed efficienza del capitale sarà fondamentale. Investire strategicamente non è solo una corsa per scalare l’infrastruttura dati, ma è una corsa per plasmare il futuro dell’AI stessa.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Microcredito

per le aziende

 

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Dilazione debiti

Saldo e stralcio