
L’article de Mihir Kshirsagar, Why the GenAI Infrastructure Boom May Break Historical Patterns, 25 novembre 2025 (https://blog.citp.princeton.edu/2025/11/25/why-the-genai-infrastructure-boom-may-break-historical-patterns/) part d’un parallèle souvent fait entre la vague actuelle d’investissements dans les infrastructures de l’IA générative et les grandes vagues d’infrastructures des XIXe et XXe siècles : chemins de fer, électricité, télécoms.
Dans ces trois cas, il y a bien eu bulle, surinvestissement, faillites et consolidation oligopolistique. Mais, malgré les pertes pour les investisseurs et la concentration du secteur, la société dans son ensemble a tiré un bénéfice durable de ces infrastructures. Les voies ferrées, les réseaux électriques et la fibre ont permis des gains de productivité largement diffusés dans l’économie, que les propriétaires des réseaux n’ont jamais réussi à capter complètement. L’argument central de l’auteur est que la vague actuelle autour de l’IA générative risque de briser ce schéma historique : même si la bulle éclate, rien ne garantit cette fois que la collectivité en sorte gagnante. Deux raisons principales sont avancées: la nature même des actifs matériels de l’IA, beaucoup plus rapidement obsolètes, et la structure économique du marché, dominé par des coalitions intégrées autour des hyperscalers.
Pour poser ce diagnostic, l’article revient d’abord sur les trois grands précédents.
S’agissant des chemins de fer américains, la crise de 1873 entraîne une vague de faillites puis une concentration extrême du secteur: quelques grands groupes financiers, incarnés par des figures comme J.P. Morgan, Edward Harriman ou James J. Hill, prennent le contrôle de la majorité du réseau. Cela suscite des inquiétudes antitrust et conduit à l’adoption du Sherman Act. Pourtant, malgré cette concentration, les compagnies ferroviaires peinent à rentabiliser leurs investissements. Les travaux d’historiens économiques montrent que les grandes lignes ont provoqué d’énormes gains de productivité dans l’agriculture et l’industrie, mais que ces gains sont restés en grande partie chez les producteurs et les régions desservies. Le rail a permis l’accès à des marchés plus vastes, la spécialisation des cultures, les investissements dans la mécanisation, l’usage accru d’intrants modernes. L’infrastructure, conçue pour durer des décennies, a continué à produire ces effets bien après la vague de consolidation. Trois contraintes structurelles limitaient la capacité des compagnies à capter la totalité de cette richesse: des obligations de transporteur commun avec des tarifs encadrés fondés sur le poids et la distance, sans lien direct avec la valeur de la marchandise ; une faible visibilité sur la rentabilité réelle des exploitations agricoles ; et des barrières importantes à une intégration verticale vers la production agricole. Même lorsqu’elles tentaient de remonter la chaîne de valeur, la régulation les en empêchait largement.
Le cas de l’électricité suit un schéma proche. Dans les années 1920, Samuel Insull bâtit un empire de sociétés électriques qui s’effondre au début des années 1930, ce qui déclenche une restructuration et la mise en place de monopoles régionaux régulés. Le Congrès adopte le Public Utility Holding Company Act pour briser les montages les plus concentrés. Pourtant, les investissements des années 1920–1930, en centrales et réseaux de transport, ont une durée de vie de plusieurs dizaines d’années et soutiennent l’essor industriel américain de l’après-guerre. La diffusion de l’électricité dans les usines permet de réorganiser complètement la production: on passe des grandes machines à vapeur à entraînement mécanique à des moteurs électriques répartis dans l’atelier, puis à la production en flux continu et à la chaîne de montage. Les gains de productivité dans l’industrie manufacturière sont massifs, mais les entreprises électriques vendent des kilowattheures à des tarifs encadrés, sans pouvoir fixer leurs prix en fonction de la rentabilité de tel ou tel client. Là encore, la régulation impose des tarifs à peu près standardisés et des rendements jugés raisonnables. Les compagnies disposent d’assez peu d’informations sur la manière dont l’énergie est transformée en valeur dans les usines, et elles n’ont ni la compétence ni le droit de se transformer en conglomérats industriels. Les bénéfices liés à l’électricité irriguent donc l’économie dans son ensemble, sans remonter entièrement aux détenteurs des réseaux.
Le troisième précédent concerne les télécommunications et la fibre optique déployée massivement dans les années 1990, avant l’éclatement de la bulle internet. De nombreux opérateurs font faillite, WorldCom dépose le bilan, le secteur se consolide autour de quelques grandes entreprises. Pourtant, les fibres posées à cette époque constituent pendant des décennies le socle de l’économie numérique: commerce en ligne, logiciels en mode service, travail à distance, streaming, cloud, tout cela repose sur cette capacité excédentaire devenue progressivement bon marché. Les opérateurs, toutefois, sont rémunérés sur des abonnements et de la bande passante, non sur une part du chiffre d’affaires d’Amazon, Netflix ou Salesforce. Ils ont peu de visibilité fine sur les usages applicatifs et rencontrent des obstacles techniques, commerciaux et réglementaires à une intégration directe dans les services en ligne. Les débats ultérieurs sur la neutralité du net illustrent bien les tensions autour de tentatives de remonter la chaîne de valeur, mais ces mouvements se produisent après la phase de structuration de l’économie web.
Dans ces trois secteurs, le même motif se dessine: l’infrastructure finit entre peu de mains, mais les contraintes juridiques, informationnelles et organisationnelles limitent la capacité des propriétaires à accaparer les gains de productivité générés par l’usage de ces réseaux, d’autant que ces infrastructures, conçues pour durer, deviennent à terme des actifs disponibles pour d’autres acteurs.
L’auteur soutient que l’IA générative se situe dans un tout autre paysage d’incitations.
D’abord, les infrastructures matérielles – essentiellement les puces graphiques dédiées à l’entraînement et à l’inférence – ont une durée de vie économique très courte, de l’ordre d’un à trois ans. La combinaison de l’usure liée à des charges de calcul intensives et de l’obsolescence rapide des générations de puces successives fait que, en cas de retournement de marché, un centre de données rempli de cartes graphiques d’avant-dernière génération ne constitue pas une « autoroute » numérique bon marché pour de nouveaux entrants. À la différence des voies ferrées ou des câbles de fibre, ces actifs ne deviennent pas des « biens échoués » facilement rachetables par d’autres. Les seuls acteurs capables de rester en permanence dans la boucle sont les hyperscalers disposant de flux de trésorerie considérables: Microsoft, Google, Amazon, Meta. La montée en puissance de techniques logicielles plus efficaces pourrait certes modifier cet équilibre, mais ces mêmes hyperscalers contrôlent les canaux de distribution et gardent donc une position centrale, même si la contrainte matérielle se détendait.
Ensuite, et surtout, la structure économique du marché de l’IA est marquée par une intégration verticale poussée entre l’infrastructure et les usages applicatifs, via des coalitions comme Microsoft–OpenAI, Amazon–Anthropic, Google–DeepMind. Ces coalitions ne sont pas de simples partenariats commerciaux: elles lient étroitement les investissements dans les centres de données, le développement des modèles et la commercialisation des services d’IA. L’article explique que cette intégration permet de dépasser les trois contraintes qui, historiquement, limitaient la capture de la valeur par les propriétaires d’infrastructures. Première différence, la tarification à l’usage des API d’IA est conçue pour capter une part importante de la valeur créée au niveau des applications. Là où les chemins de fer ou les compagnies électriques finissaient encadrés par des tarifs régulés, les fournisseurs d’IA facturent des appels d’API ou des « tokens » sans véritable plafond ni mécanisme de régulation de type « coût plus marge raisonnable ». Plus une application trouve son marché et s’étend, plus elle paie de volumes, avec des prix qui peuvent être ajustés de manière opaque dans les contrats d’entreprise, ce qui permet au fournisseur d’IA de suivre et de prélever une partie du succès de ses clients.
Deuxième différence, les hyperscalers disposent d’une information très fine sur les usages: volumes d’appels, types de requêtes, secteurs qui se développent, profils de clients. À la différence d’un opérateur ferroviaire qui ne sait pas quelle ferme est la plus rentable, un fournisseur d’IA peut, en observant les schémas d’utilisation de son API, repérer les cas d’usage porteurs et les clients les plus innovants. Cela ouvre la voie à une concurrence directe: l’infrastructure qui alimente l’innovation fournit en même temps une intelligence de marché permettant, le cas échéant, de lancer des services concurrents intégrés dans des suites logicielles existantes.
Troisième différence, ces groupes sont déjà très présents au niveau des applications: Microsoft domine le logiciel d’entreprise, Google les services de productivité et la recherche, Amazon le commerce et le cloud, Meta les réseaux sociaux. Ils peuvent donc à la fois vendre des capacités d’IA à des tiers et les intégrer dans leurs propres produits. L’article insiste sur la différence avec le cloud « classique »: quand Netflix ou Uber utilisaient AWS, le code métier et la logique de l’application restaient chez eux; le fournisseur de cloud n’était qu’un hébergeur. Dans l’IA générative, au contraire, une part essentielle de l’intelligence de l’application – raisonnement, rédaction, analyse – réside dans le modèle fourni par l’infrastructure. Le client « loue » des capacités cognitives plutôt que de simplement louer des serveurs. Cette configuration donne mécaniquement à l’infrastructure un pouvoir accru sur la création de valeur.
Dans ces conditions, les développeurs de modèles, même très visibles, restent dépendants de leurs partenaires hyperscalers, puisqu’ils n’ont pas eux-mêmes la maîtrise complète du capital matériel ni des canaux de distribution. Le rapport de force au sein des coalitions est donc largement en faveur des grands groupes d’infrastructure, qui peuvent capturer de la valeur à plusieurs niveaux et conserver la faculté de marginaliser leurs partenaires si nécessaire.
L’article conclut que, contrairement aux cycles précédents, l’issue probable de la vague d’investissement dans l’infrastructure IA combine concentration durable et faibles « retombées » positives pour le reste de l’économie. Si la rentabilité est au rendez-vous, ce sera en grande partie grâce à cette capacité de capture de rente; si une bulle éclate, la brièveté de vie des actifs matériels limitera la réutilisation de l’infrastructure par de nouveaux entrants. Dans les deux cas, la « consolation » historique – l’idée que, même si les investisseurs perdent, la société gagne de vastes infrastructures productives – est loin d’être acquise.
La seule contre-tendance identifiée est celle des modèles « open weight », dont les poids sont diffusés de manière ouverte et qui peuvent servir de base à un écosystème plus décentralisé. Si cet écosystème est soutenu, par exemple via un accès public à des ressources de calcul ou via des règles d’interopérabilité favorables à la concurrence, il pourrait jouer le rôle de patrimoine technique réutilisable qui a existé dans les vagues d’infrastructures précédentes. L’auteur en fait donc un enjeu stratégique de politique publique: garantir que les gains de productivité potentiels de l’IA puissent se diffuser au-delà des coalitions d’hyperscalers, de manière à renouer, autant que possible, avec le compromis historique entre innovation, investissement privé et bénéfices sociaux larges.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle