Depuis septembre 2025, le marché de l’informatique traverse une crise tarifaire sans précédent. En l’espace de quelques mois, le prix d’un kit de mémoire RAM standard est passé de 130 € à près de 500 €. Cette inflation fulgurante ne s’arrête pas aux composants pour ordinateurs : en ce deuxième trimestre 2026, l’ensemble des appareils électroniques est touché. Les nouveaux smartphones subissent des hausses de 150 €, la PlayStation 5 voit son prix grimper de 100 € des années après sa sortie, et même de simples clés USB deviennent onéreuses. Derrière cette flambée des prix se cache une série d’événements déclenchés par l’industrie de l’intelligence artificielle, couplée à une spéculation massive.
Le projet Stargate et le coup de bluff d’OpenAI
L’élément déclencheur de ce chaos porte un nom : le projet Stargate. Ce programme colossal prévoyait d’injecter 500 milliards de dollars d’investissements dans l’intelligence artificielle sur une période de quatre ans. Au cœur de cette initiative, Sam Altman, le PDG d’OpenAI, a entrepris une démarche qui a bouleversé l’industrie.
Fin 2025, il se rend à Séoul pour rencontrer les deux géants de la fabrication de puces mémoire : SK Hynix et Samsung. Fort de sa position dominante, il exige la livraison de 900 000 wafers (tranches de silicium) par mois. Cette commande titanesque représentait à elle seule 40 % de la production mondiale de mémoire. En parallèle, OpenAI s’engage auprès d’Oracle à dépenser 300 milliards de dollars en puissance de calcul sur cinq ans. Pour répondre à cette demande, Oracle a immédiatement lancé la construction de centres de données d’une ampleur telle qu’ils nécessiteraient l’équivalent de dix centrales nucléaires pour être alimentés en électricité.
L’effet domino : panique et spéculation
Face à ces annonces vertigineuses, le marché a totalement perdu le contrôle. Samsung, SK Hynix et Micron, qui détiennent à eux trois 95 % du marché mondial de la mémoire, ont massivement réorienté leurs chaînes de production vers la HBM (High Bandwidth Memory), une mémoire optimisée pour l’IA, vendue trois à cinq fois plus cher que la RAM classique. Dès octobre 2025, SK Hynix annonçait que toute sa production pour l’année 2026 était déjà vendue, rapidement suivi par Micron.
Cette situation a provoqué une réaction en chaîne :
- La panique des géants du web : Google, Amazon, Meta et Microsoft, terrifiés à l’idée de se faire distancer par OpenAI, ont passé des commandes ouvertes (open-ended orders), s’engageant à acheter tout le stock disponible, peu importe le prix final.
- Le surstockage des fabricants : Les assembleurs de PC grand public, comme Lenovo ou des distributeurs français, ont accumulé des stocks massifs, parfois supérieurs de 50 % à la normale.
- L’explosion de la spéculation : Les grossistes ont commencé à raréfier artificiellement l’offre. Certains refusaient de vendre leurs stocks en fin de semaine, sachant qu’une hausse des prix était programmée pour le lundi suivant. Les quotas ont été drastiquement réduits, limitant parfois les assembleurs professionnels à seulement cinq kits de RAM par semaine.
Le coup de grâce pour le grand public est tombé en décembre 2025, lorsque Micron a annoncé la fermeture définitive de sa marque historique grand public, Crucial, après 29 ans d’existence, pour se concentrer exclusivement sur les entreprises et l’IA. De manière surprenante, ni Samsung ni SK Hynix n’ont cherché à récupérer cette part de marché laissée vacante.
La révélation d’une pénurie artificielle
Le retournement de situation est survenu début 2026. L’accord faramineux signé par Sam Altman à Séoul n’était en réalité qu’une lettre d’intention, un document sans aucune valeur juridique contraignante. OpenAI a finalement revu ses ambitions à la baisse, réduisant drastiquement la quantité de puces qu’elle comptait acheter. Dans son sillage, Nvidia a divisé par trois ses prévisions d’investissement, passant de 100 à 30 milliards de dollars, et Oracle a gelé ses projets de méga-centres de données.
Cependant, le mal était fait. Si OpenAI a pu faire machine arrière, les autres géants de la technologie avaient, quant à eux, signé de véritables contrats fermes en décembre 2025. Ils se retrouvent contraints de payer le prix fort. Aujourd’hui, sur un smartphone d’entrée de gamme fabriqué au second trimestre 2026, le coût de la mémoire représente à lui seul 54 % du coût total de fabrication. Cette charge financière est inévitablement répercutée sur le consommateur final.
Pourquoi l’IA a-t-elle un besoin vital de mémoire HBM ?
Pour comprendre cet engouement, il faut se pencher sur la technologie HBM. La bande passante correspond à la quantité de données pouvant être transférée en une seconde. À titre de comparaison, une barrette de RAM DDR5 grand public offre une bande passante d’environ 51,2 Go par seconde. La nouvelle norme HBM4, quant à elle, atteint 3 300 Go par seconde, soit une capacité 64 fois supérieure.
Cette vitesse extrême est indispensable pour le fonctionnement des intelligences artificielles. Lorsqu’un utilisateur converse avec un modèle comme ChatGPT, l’IA utilise une mémoire à court terme appelée KV Cache pour retenir le contexte de la discussion. Chaque message est converti en tokens qui s’accumulent dans ce cache, stocké directement sur la mémoire HBM des cartes graphiques (comme les fameuses H100 de Nvidia, vendues 30 000 € l’unité). Une conversation riche peut immobiliser jusqu’à une dizaine de gigaoctets de cette mémoire hors de prix. Multiplié par des millions d’utilisateurs simultanés, le besoin matériel devient astronomique.
Faut-il espérer une baisse des prix ?
Malgré une baisse récente de 50 % de la demande sur le marché des PC fixes, qui a fait légèrement reculer le prix de certains kits de 32 Go autour de 350 €, un retour à la normale semble compromis pour 2026. Les fabricants de puces ont retenu la dure leçon de la période post-Covid. Après avoir augmenté leur production pendant la pandémie, ils s’étaient retrouvés avec 31 semaines d’invendus, provoquant une chute vertigineuse de 96 % des bénéfices de Samsung en avril 2023.
Aujourd’hui, cet oligopole préfère maintenir une production restreinte pour garantir des prix élevés plutôt que de risquer un nouveau surplus. Même les avancées logicielles, comme l’algorithme « Turboant » censé compresser le KV Cache par six, ne feront pas baisser la demande. Au contraire, les entreprises d’IA profiteront de cette optimisation pour augmenter les limites de tokens et rendre leurs modèles encore plus gourmands.
Dans ce contexte de marché verrouillé, la meilleure stratégie pour les consommateurs reste la patience. À moins d’une nécessité absolue, il est urgent d’attendre et de repenser l’utilité réelle du renouvellement de nos équipements électroniques.
Source : Kang et ses PC

























































