Mercato dei Chip Compute-In-Memory (CIM) Dimensioni e condivisione 2026-2035
ID del Rapporto: GMI15788
|
Data di Pubblicazione: April 2026
|
Formato del Rapporto: PDF
Scarica il PDF gratuito
Autori: Suraj Gujar, Ankita Chavan

Dimensione del mercato dei chip Compute-In-Memory
Il mercato globale dei chip Compute-In-Memory (CIM) è stato valutato a 500 milioni di dollari USA nel 2025. Si prevede che il mercato crescerà dai 687,7 milioni di dollari USA nel 2026 ai 3,4 miliardi di dollari USA nel 2031 e ai 12,8 miliardi di dollari USA nel 2035, con un CAGR del 38,4% durante il periodo di previsione secondo l'ultimo rapporto pubblicato da Global Market Insights Inc.
La crescita del mercato dei chip Compute-In-Memory è guidata dalla crescente necessità di migliorare l'efficienza computazionale poiché i volumi di dati e l'intensità di elaborazione aumentano nelle moderne applicazioni. L'uso crescente dell'intelligenza artificiale e dei carichi di lavoro ad alta intensità di dati, la più ampia diffusione dei sistemi edge e embedded e i vincoli affrontati dalle tradizionali architetture basate sui processori stanno spingendo la domanda di soluzioni Compute-In-Memory.
Il mercato dei chip Compute-In-Memory è trainato dalla crescente necessità di un computing efficiente dal punto di vista energetico poiché l'intelligenza artificiale continua a spingere i consumi elettrici più elevati nell'infrastruttura dei data center. L'Agenzia Internazionale dell'Energia (IEA) stima che i data center abbiano consumato circa 415 TWh di elettricità nel 2024 e proietta che questa cifra quasi raddoppierà a circa 945 TWh entro il 2030 a causa dei carichi di lavoro guidati dall'IA. Questo forte aumento della domanda energetica sta rendendo l'efficienza a livello hardware una preoccupazione critica per gli operatori. L'architettura Compute-In-Memory risolve questo problema minimizzando il trasferimento dei dati dalla memoria ai processori, riducendo così il consumo energetico totale. Con l'aumento dei prezzi dell'energia e la crescente preoccupazione per la sostenibilità, la domanda di chip Compute-In-Memory sta crescendo come soluzione pratica per gestire i requisiti energetici a lungo termine dell'IA.
Inoltre, la crescita del mercato dei chip Compute-In-Memory (CIM) è ulteriormente supportata dal crescente spostamento verso i sistemi di computing edge e embedded che devono operare entro limiti di potenza e latenza rigorosi. Poiché l'elaborazione dell'IA si avvicina alla fonte dei dati, le architetture tradizionali dipendenti dal cloud stanno diventando inefficienti e ad alta intensità energetica. Questo sta aumentando la domanda di hardware in grado di fornire elevate prestazioni entro budget energetici stretti. Nel 2025, TSMC ha introdotto la prima macro Compute-In-Memory nei dispositivi edge-AI, con un'efficienza prestazionale di 188,4 TOPS/W. Questo tipo di efficienze prestazionali sta incoraggiando una rapida adozione dei chip Compute-In-Memory nei dispositivi edge e nelle piattaforme AI embedded, sostenendo direttamente la crescita del mercato.
Il mercato dei chip Compute-In-Memory (CIM) è cresciuto costantemente dai 123,8 milioni di dollari USA nel 2022 ai 313,1 milioni di dollari USA nel 2024, trainato dalla rapida adozione delle applicazioni di intelligenza artificiale, dall'attenzione alle soluzioni di computing efficiente dal punto di vista energetico e dall'uso crescente delle piattaforme di computing edge e embedded. Durante questo periodo, le architetture di calcolo si sono spostate verso progetti incentrati sulla memoria per affrontare i vincoli di potenza e latenza, le applicazioni AI ad alta intensità di dati sono state scalate nei data center e nei dispositivi edge, i colli di bottiglia dei processori tradizionali sono diventati più evidenti e i progressi nelle tecnologie di memoria hanno abilitato il calcolo pratico in-memory, rafforzando collettivamente l'adozione e sostenendo una crescita costante del mercato.
18,2% quota di mercato nel 2025
Quota di mercato collettiva nel 2025 è del 53,2%
Tendenze del mercato dei chip Compute-In-Memory
Analisi del mercato dei chip Compute-In-Memory
In base al tipo di tecnologia di memoria, il mercato globale dei chip compute-in-memory (CIM) è segmentato in CIM basato su SRAM, CIM basato su DRAM, CIM basato su flash e altri
In base al tipo di architettura, il mercato globale dei chip compute-in-memory (CIM) è suddiviso in CIM analogico, CIM digitale e CIM ibrido
In base all'applicazione, il mercato globale dei chip di calcolo-in-memory è suddiviso in AI edge, data center & cloud AI, IoT & embedded, HPC & automazione industriale e altri
Il Nord America ha detenuto una quota del 31,4% del settore dei chip Compute-In-Memory (CIM) nel 2025.
Il mercato dei chip Compute-In-Memory (CIM) negli Stati Uniti è stato valutato a 99,6 milioni di dollari USA e 158,8 milioni di dollari USA rispettivamente nel 2022 e nel 2023. La dimensione del mercato ha raggiunto i 407,4 milioni di dollari USA nel 2025, crescendo dai 254,1 milioni di dollari USA del 2024.
Mercato dei chip Compute-In-Memory in Europa
Il mercato europeo ha registrato un valore di 87,8 milioni di dollari nel 2025 ed è destinato a mostrare una crescita redditizia nel periodo di previsione.
La Germania domina il mercato europeo dei chip Compute-In-Memory (CIM), mostrando un forte potenziale di crescita.
Mercato dei chip Compute-In-Memory nell'Asia Pacifico
Si prevede che il mercato dell'Asia Pacifico crescerà al più alto tasso di crescita annuo composto (CAGR) del 40,5% durante il periodo di previsione.
Si stima che il mercato cinese dei chip Compute-In-Memory (CIM) crescerà con un CAGR significativo nel mercato dell'Asia Pacifico.
Mercato dei chip Compute-In-Memory Medio Oriente e Africa
Il mercato dell'Arabia Saudita dovrebbe registrare una crescita sostanziale in Medio Oriente e Africa.
Quota di mercato dei chip Compute-In-Memory
L'industria dei chip Compute-In-Memory (CIM) è guidata da attori come Cerebras Systems, Samsung Electronics, SK Hynix, Intel e Groq, che insieme rappresentano il 53,2% della quota di mercato globale. Questi attori offrono architetture di calcolo altamente specializzate che minimizzano lo spostamento dei dati, migliorano la produttività del processamento e aumentano l'efficienza energetica per carichi di lavoro di intelligenza artificiale e applicazioni intensive di dati nei data center e negli ambienti di calcolo avanzato.
La loro leadership è supportata da solide capacità di integrazione tra memoria e logica, design proprietari di acceleratori e soluzioni scalabili a livello di sistema. Inoltre, investimenti a lungo termine in manifattura avanzata, co-design hardware-software e sviluppo di prodotti focalizzati sulle applicazioni consentono a questi attori di soddisfare i requisiti in evoluzione di prestazioni ed efficienza, mantenendo la loro posizione di leadership nel mercato dei chip Compute-In-Memory.
Società del mercato dei chip Compute-In-Memory
I principali attori operanti nell'industria dei chip Compute-In-Memory (CIM) sono i seguenti:
Cerebras Systems si concentra su architetture di calcolo su scala wafer che integrano memoria on-chip massiccia con capacità di elaborazione. Il suo approccio consente una larghezza di banda estremamente elevata e una riduzione dello spostamento dei dati, rendendolo adatto a carichi di lavoro di intelligenza artificiale su larga scala.
Samsung Electronics sfrutta la sua profonda esperienza nella produzione avanzata di memoria per sviluppare soluzioni Compute-In-Memory integrate direttamente nelle architetture di memoria. La sua forza risiede nella scalabilità, nella capacità di produzione su larga scala e nell'allineamento con i casi d'uso di intelligenza artificiale e data center.
SK hynix si concentra su innovazioni di calcolo incentrate sulla memoria integrando capacità di elaborazione all'interno di prodotti di memoria ad alte prestazioni. La sua posizione di forza nella DRAM e nelle memorie di nuova generazione consente un supporto efficiente per applicazioni di calcolo intensive di dati.
Intel si distingue per l'integrazione a livello di sistema dei concetti Compute-In-Memory tra processori, acceleratori e piattaforme di memoria. Il suo approccio ecosistemico consente un'ottimizzazione più stretta tra hardware e software e un'adozione più agevole negli ambienti enterprise e nei data center.
Groq si specializza in architetture di calcolo AI deterministiche ad alta produttività che minimizzano la latenza e lo spostamento dei dati. La sua architettura enfatizza prestazioni prevedibili ed esecuzione efficiente dei carichi di lavoro AI, posizionandola bene per applicazioni di inferenza in tempo reale.
Notizie sull'industria dei chip Compute-In-Memory
Il rapporto di ricerca sul mercato dei chip compute-in-memory include un'analisi approfondita del settore con stime e previsioni in termini di ricavi (USD Milioni) dal 2022 al 2035 per i seguenti segmenti:
Mercato, per tipo di tecnologia di memoria
Mercato, per tipo di architettura
Mercato, per applicazione
Mercato, per settore utente finale
Le informazioni sopra riportate sono fornite per le seguenti regioni e paesi: