Marché des puces à calcul en mémoire (CIM) Taille et partage 2026-2035
Télécharger le PDF gratuit
Télécharger le PDF gratuit
Année de référence: 2025
Entreprises couvertes: 15
Tableaux et figures: 286
Pays couverts: 19
Pages: 174
Télécharger le PDF gratuit
Marché des puces à calcul en mémoire (CIM)
Obtenez un échantillon gratuit de ce rapport
Taille du marché des puces Compute-In-Memory
Le marché mondial des puces Compute-In-Memory (CIM) était évalué à 500 millions de dollars américains en 2025. Selon le dernier rapport publié par Global Market Insights Inc., le marché devrait passer de 687,7 millions de dollars américains en 2026 à 3,4 milliards de dollars américains en 2031 et à 12,8 milliards de dollars américains en 2035, avec un TCAC de 38,4 % durant la période de prévision.
La croissance du marché des puces Compute-In-Memory est stimulée par la nécessité croissante d'améliorer l'efficacité informatique à mesure que les volumes de données et l'intensité de traitement augmentent dans les applications modernes. L'utilisation croissante de l'intelligence artificielle et des charges de travail intensives en données, le déploiement plus large des systèmes edge et embarqués, ainsi que les contraintes rencontrées par les architectures traditionnelles centrées sur le processeur stimulent la demande pour les solutions Compute-In-Memory.
Le marché des puces Compute-In-Memory est porté par le besoin croissant d'informatique écoénergétique, alors que l'intelligence artificielle continue d'augmenter la consommation électrique des infrastructures des centres de données. L'Agence internationale de l'énergie (AIE) estime que les centres de données ont consommé environ 415 TWh d'électricité en 2024, et prévoit que ce chiffre devrait presque doubler pour atteindre environ 945 TWh d'ici 2030 en raison des charges de travail liées à l'IA. Cette forte augmentation de la demande énergétique rend l'efficacité au niveau matériel une préoccupation majeure pour les opérateurs. L'architecture Compute-In-Memory résout ce problème en minimisant le transfert de données entre la mémoire et les processeurs, réduisant ainsi la consommation totale d'énergie. Avec la hausse des prix de l'énergie et les préoccupations croissantes en matière de durabilité, la demande de puces Compute-In-Memory augmente en tant que solution pratique pour gérer les besoins énergétiques à long terme de l'IA.
Par ailleurs, la croissance du marché des puces Compute-In-Memory (CIM) est également soutenue par le virage croissant vers les systèmes informatiques edge et embarqués qui doivent fonctionner dans des limites strictes de puissance et de latence. À mesure que le traitement de l'IA se rapproche de la source de données, les architectures traditionnelles dépendantes du cloud deviennent inefficaces et énergivores. Cela augmente la demande pour des matériels capables de fournir des performances élevées dans des budgets énergétiques serrés. En 2025, TSMC a introduit le premier macro Compute-In-Memory dans des dispositifs edge-AI, avec une efficacité de performance de 188,4 TOPS/W. Ce type d'efficacité de performance encourage une adoption rapide des puces Compute-In-Memory dans les appareils edge et les plateformes embarquées d'IA, soutenant directement la croissance du marché.
Le marché des puces Compute-In-Memory (CIM) a augmenté régulièrement, passant de 123,8 millions de dollars américains en 2022 à 313,1 millions de dollars américains en 2024, porté par l'adoption rapide des applications d'intelligence artificielle, l'accent mis sur les solutions informatiques écoénergétiques et l'utilisation croissante des plateformes informatiques edge et embarquées. Durant cette période, les architectures informatiques se sont orientées vers des conceptions centrées sur la mémoire pour répondre aux contraintes de puissance et de latence, les applications d'IA intensives en données se sont étendues dans les centres de données et les appareils edge, les goulots d'étranglement des processeurs traditionnels sont devenus plus évidents, et les avancées dans les technologies de mémoire ont permis le calcul pratique en mémoire, renforçant collectivement l'adoption et soutenant une croissance durable du marché.
18,2 % de part de marché en 2025
Part de marché collective en 2025 : 53,2 %
Tendances du marché des puces Compute-In-Memory
Analyse du marché des puces de calcul en mémoire
Sur la base du type de technologie mémoire, le marché mondial des puces de calcul en mémoire (CIM) est segmenté en CIM basé sur SRAM, CIM basé sur DRAM, CIM basé sur la mémoire flash et autres.
Sur la base du type d'architecture, le marché mondial des puces de calcul en mémoire (CIM) est divisé en CIM analogique, CIM numérique et CIM hybride
Selon l'application, le marché mondial des puces de calcul en mémoire est divisé en IA edge, IA des centres de données & cloud, IoT & embarqué, HPC & automatisation industrielle et autres.
L'Amérique du Nord détenait une part de 31,4 % de l'industrie des puces Compute-In-Memory (CIM) en 2025.
Le marché américain des puces Compute-In-Memory (CIM) était évalué à 99,6 millions de dollars et 158,8 millions de dollars en 2022 et 2023, respectivement. La taille du marché a atteint 407,4 millions de dollars en 2025, en hausse par rapport à 254,1 millions de dollars en 2024.
Marché des puces de calcul en mémoire en Europe
Le marché européen représentait 87,8 millions de dollars en 2025 et devrait afficher une croissance lucrative sur la période de prévision.
L'Allemagne domine le marché européen des puces de calcul en mémoire (CIM), affichant un fort potentiel de croissance.
Marché des puces de calcul en mémoire en Asie-Pacifique
Le marché de l'Asie-Pacifique devrait croître au taux de croissance annuel composé (TCAC) le plus élevé de 40,5 % durant la période de prévision.
Le marché chinois des puces de calcul en mémoire (CIM) devrait croître à un TCAC significatif dans le marché de l'Asie-Pacifique.
Marché des puces Compute-In-Memory en Moyen-Orient et en Afrique
Le marché de l'Arabie saoudite devrait connaître une croissance substantielle au Moyen-Orient et en Afrique.
Part de marché des puces Compute-In-Memory
L'industrie des puces Compute-In-Memory (CIM) est dirigée par des acteurs tels que Cerebras Systems, Samsung Electronics, SK Hynix, Intel et Groq, qui représentent ensemble 53,2 % de la part du marché mondial. Ces acteurs proposent des architectures informatiques hautement spécialisées qui minimisent le mouvement des données, améliorent le débit de traitement et renforcent l'efficacité énergétique pour l'intelligence artificielle et les charges de travail intensives en données dans les centres de données et les environnements informatiques avancés.
Leur leadership est soutenu par des capacités solides en intégration mémoire-logique, des conceptions d'accélérateurs propriétaires et des solutions évolutives au niveau du système. De plus, des investissements à long terme dans la fabrication avancée, une co-conception matérielle-logicielle étroite et le développement de produits axés sur des applications permettent à ces acteurs de répondre aux exigences évolutives en matière de performance et d'efficacité, consolidant ainsi leur position de leader sur le marché des puces Compute-In-Memory.
Entreprises du marché des puces Compute-In-Memory
Les principaux acteurs opérant dans l'industrie des puces Compute-In-Memory (CIM) sont les suivants :
Cerebras Systems se concentre sur des architectures informatiques à l'échelle de la plaquette qui intègrent une mémoire massive sur puce avec des capacités de traitement. Son approche permet une bande passante extrêmement élevée et réduit le mouvement des données, ce qui la rend bien adaptée aux charges de travail d'IA à grande échelle.
Samsung Electronics s'appuie sur son expertise approfondie en fabrication de mémoire avancée pour développer des solutions Compute-In-Memory intégrées directement dans les architectures mémoire. Sa force réside dans sa capacité de production à grande échelle, son évolutivité et son alignement avec les cas d'utilisation de l'IA et des centres de données.
SK hynix se concentre sur les innovations en matière d'informatique centrée sur la mémoire en intégrant des capacités de traitement dans des produits mémoire haute performance. Sa position solide dans les mémoires DRAM et de nouvelle génération permet de soutenir efficacement les applications informatiques intensives en données.
Intel se distingue par l'intégration au niveau du système des concepts Compute-In-Memory dans les processeurs, accélérateurs et plateformes mémoire. Son approche écosystémique large permet une optimisation matérielle-logicielle plus étroite et une adoption plus fluide dans les environnements d'entreprise et de centres de données.
Groq se spécialise dans les architectures de calcul IA déterministes et à haut débit qui minimisent la latence et le mouvement des données. Son architecture met l'accent sur des performances prévisibles et une exécution efficace des charges de travail IA, ce qui la positionne favorablement pour les applications d'inférence en temps réel.
Actualités du secteur des puces à calcul en mémoire
Le rapport de recherche sur le marché des puces à calcul en mémoire comprend une couverture approfondie du secteur avec des estimations et des prévisions en termes de revenus (en millions de dollars USD) de 2022 à 2035 pour les segments suivants :
Marché, par type de technologie mémoire
Marché, par type d'architecture
Marché, par application
Marché, par secteur d'activité utilisateur final
Les informations ci-dessus sont fournies pour les régions et pays suivants :