
Quelques réflexions du MIT tirées de A. CHALLAPALLY et al., The Great GenAI Divide. State of AI in Business 2025, MIT Nanda Group, juillet 2025 (https://mlq.ai/media/quarterly_decks/v0.1_State_of_AI_in_Business_2025_Report.pdf):
Introduction
Le rapport dresse un constat étonnant : malgré 30 à 40 milliards de dollars d’investissements cumulés dans la GenAI (intelligence artificielle générative) par les entreprises, environ 95 % des organisations n’en tirent aucun rendement mesurable. Seule une minorité — environ 5 %— génère des gains de plusieurs millions, tandis que la vaste majorité reste bloquée sans impact sur le compte d’exploitation. Selon les auteurs, l’explication n’est ni la qualité des modèles ni la régulation, mais l’« approche » suivie par acheteurs et fournisseurs.
Autrement dit, l’écart de performance — la « GenAI Divide » — procède d’un différentiel de méthode et d’exécution. Les outils grand public type ChatGPT ou Copilot sont massivement testés et partiellement déployés, mais ils élèvent surtout la productivité individuelle sans transformer les comptes de pertes et profits (P&L).
À l’inverse, les systèmes « entreprise », qu’ils soient sur mesure ou fournis par des éditeurs, sont largement rejetés : beaucoup sont évalués, peu passent en pilote, et une infime fraction atteint la production. Les causes récurrentes sont des flux de travail fragiles, un déficit d’apprentissage contextuel et un faible alignement avec l’opérationnel. Le véritable obstacle n’est pas l’infrastructure, la pénurie de talents ou la conformité ; c’est l’absence de « learning » continu : la plupart des systèmes ne retiennent pas le feedback, ne s’adaptent pas au contexte, ne s’améliorent pas au fil du temps.
À l’opposé, un petit groupe d’acheteurs et de vendeurs obtient des résultats en exigeant des solutions centrées sur les processus, capables d’intégration profonde et d’apprentissage persistant. Là où des impacts RH existent, ils demeurent sélectifs (support client, ingénierie logicielle, fonctions administratives) et s’accompagnent d’économies claires sur les BPO (Business Practice Outsourcing) et agences externes, ainsi que d’améliorations de rétention et de conversion commerciale, autant d’indices que des systèmes apprenants et ciblés peuvent délivrer de la valeur sans bouleversement organisationnel majeur.
Le « mauvais côté » de la GenAI Divide : adoption élevée, transformation faible
Les auteurs objectivent la fracture au niveau sectoriel via un indice composite de disruption (volatilité des parts de marché, croissance d’acteurs nés après 2020, nouveaux modèles IA, changements d’usage attribuables à la GenAI, réorganisations exécutives liées aux outils IA). Verdict : seule la technologie et, dans une moindre mesure, les médias & télécoms montrent des signes probants de mutation structurelle ; sept autres secteurs restent dominés par des pilotes sans transformation. Cette hiérarchie résiste aux variations de pondération des critères. De nombreuses entreprises pilotent, très peu industrialisent ; les outils génériques plaisent pour des tâches ponctuelles, les solutions sur mesure se heurtent à l’intégration, au manque de mémoire et à l’inadéquation aux usages. Notamment, les grands groupes multiplient les pilotes mais « scalent » moins que les entreprises de taille intermédiaire plus agiles, lesquelles réussissent parfois à passer du pilote au déploiement en 90 jours, quand les grandes entreprises dépassent fréquemment neuf mois. Les auteurs réfutent cinq idées reçues : pas de remplacements massifs de postes à court terme ; l’adoption ne vaut pas transformation ; les grandes entreprises sont en réalité très actives en exploration ; le principal frein n’est pas la qualité de modèle ou le juridique mais l’absence d’apprentissage et l’intégration déficiente ; enfin, les « meilleurs » ne sont pas forcément ceux qui construisent en interne, car ces projets échouent deux fois plus souvent que les partenariats externes.
Pourquoi les pilotes s’enlisent : le « learning gap »
Le chapitre centralise les causes d’échec de montée en charge. Un sondage auprès de sponsors exécutifs et d’utilisateurs place la résistance au changement au premier rang, mais juste derrière apparaissent des facteurs liés à la qualité perçue des modèles, au manque d’UX (User Experience) et surtout à l’absence d’apprentissage contextuel. Paradoxe : les mêmes professionnels qui utilisent avec enthousiasme des interfaces grand public comme ChatGPT se montrent circonspects face aux outils internes qui, bien que basés sur des modèles analogues, ne s’adaptent pas, ne mémorisent pas et ne s’améliorent pas. Les outils génériques gagnent pour la rédaction et l’idéation car ils sont flexibles, rapides et familiers ; ils perdent pour les activités critiques, où 90 % des répondants préfèrent l’humain en raison d’un besoin de mémoire des préférences, de persistance du contexte et de personnalisation des workflows. Le « gap » est donc structurel : sans mémoire, sans apprentissage et sans adaptation, l’IA reste cantonnée aux tâches simples. Les auteurs introduisent ici la notion d’« Agentic AI » : des systèmes conçus avec mémoire persistante, apprentissage itératif et orchestration autonome, capables de prendre en charge des processus de bout en bout (support, finance transactionnelle, pipeline commercial) et de combler précisément les lacunes mises au jour.
Une dynamique éclairante complète ce diagnostic : l’« économie de l’ombre » de l’IA.
Bien que peu d’organisations achètent des abonnements officiels, l’usage personnel des LLM par les employés est massif et quotidien, avec des gains visibles — souvent supérieurs aux initiatives officielles —, tout en restant non intégré, non gouverné et non cumulatif pour l’entreprise. Les organisations qui savent capitaliser sur ces usages en les cartographiant puis en achetant des équivalents entreprise dotés de mémoire et d’intégrations, se donnent les moyens de franchir la Divide.
Franchir la Divide côté « builders » : ce que font les meilleurs fournisseurs
Les éditeurs et startups qui réussissent se différencient par trois traits : focalisation sur des cas étroits mais à forte valeur, enracinement profond dans les workflows, et apprentissage continu pour « scaler » par l’amélioration et non par l’empilement de fonctionnalités. Les acheteurs plébiscitent les solutions qui retiennent le contexte, apprennent des feedbacks et se personnalisent au processus — des capacités explicitement demandées par près des deux tiers des dirigeants interrogés. Les critères d’achat réels, tels que décrits par les décideurs, sont la confiance dans le fournisseur, l’intimité avec le métier, le minimum de perturbation des outils en place, des frontières de données claires et la capacité démontrée à s’améliorer dans le temps. Dans les marchés de confiance (juridique, santé, finance), la défiance envers les jeunes pousses reste élevée : les partenariats via des intégrateurs, les recommandations de pairs, de conseils d’administration ou d’écosystèmes jouent un rôle décisif dans l’accès et la conversion. Les segments gagnants aujourd’hui sont pragmatiques : voix/centre d’appels (synthèse et routage), automatisation documentaire (contrats, formulaires), génération de code répétitif. À l’inverse, les offres qui prétendent piloter des logiques internes complexes ou de l’optimisation « boîte noire » se heurtent aux frictions d’adoption.
Franchir la Divide côté « buyers » : ce que font les meilleurs acheteurs
Les organisations efficaces achètent et co-développent davantage qu’elles ne construisent seules, et traitent les fournisseurs IA comme des prestataires de services opérationnels plutôt que comme des éditeurs SaaS génériques. Elles exigent des personnalisations profondes alignées sur leurs données et procédures, évaluent sur des résultats « métier » et pas des benchmarks de modèles, acceptent des itérations de mise au point, et décentralisent l’initiative vers les responsables de proximité — souvent des « power users » qui ont déjà rodé les cas d’usage via des outils grand public. Sur l’échantillon étudié, les partenariats externes aboutissent environ deux fois plus souvent que les constructions internes ; ils procurent un time-to-value plus court, un coût total plus faible et une meilleure adoption utilisateur, sous réserve des limites méthodologiques admises par les auteurs. Le design d’organisation est crucial : la délégation d’autorité pour expérimenter, combinée à une responsabilisation claire sur les résultats, explique davantage la réussite que la taille du budget ou du dispositif central.
Les auteurs renversent aussi un biais d’allocation. Bien que la moitié des budgets GenAI se dirige vers les ventes et le marketing — en partie parce que les indicateurs y sont plus immédiats et « board-friendly » —, les retours tangibles les plus nets apparaissent souvent au « back-office » : élimination partielle de BPO, réduction de 30 % des dépenses d’agence, économies substantielles en contrôle de risques, accélération des clôtures comptables et de la conformité documentaire. Ces gains surviennent généralement sans plans de licenciements internes massifs : l’IA accélère et relocalise, elle substitue des dépenses externes et libère des capacités.
Impact sur l’emploi : une réalité nuancée, des trajectoires divergentes
Les effets sur l’emploi, observés chez les adopteurs avancés et dans les secteurs réellement disruptés, se concentrent là où les activités sont déjà standardisées et souvent externalisées : support client, traitement administratif, développement logiciel répétitif. Les réductions évoquées dans ces périmètres oscillent entre 5 % et 20 % chez les entreprises concernées, mais il n’existe pas de tendance de licenciements généralisés. À l’horizon 24 mois, technologie et médias pourraient réduire les volumes de recrutement, alors que santé, énergie et industries de base ne projettent pas de contraction, même si certains dirigeants anticipent une modération des embauches lorsque les systèmes deviendront pleinement apprenants. En recrutement, l’« IA literacy » devient un critère déterminant, parfois plus répandu chez les jeunes diplômés que chez des profils expérimentés. En toile de fond, l’analyse « Project Iceberg » du MIT estime l’automatisation actuelle possible à environ 2,27 % de la valeur du travail américain, pour une exposition latente de 2,3 trillions de dollars et 39 millions de postes potentiellement affectés si — et seulement si — les systèmes gagnent en mémoire, apprentissage et autonomie d’outillage. Pour l’instant, la transformation passe davantage par l’optimisation des coûts externes que par des restructurations internes.
Au-delà des agents : vers un « Agentic Web »
Les auteurs esquissent la prochaine étape : un « agentic web » où des systèmes autonomes découvrent, négocient et coordonnent à l’échelle d’Internet. Grâce à des protocoles comme MCP, A2A et NANDA, des agents spécialisés coopèrent sans architecture monolithique, composent des intégrations dynamiques sans connecteurs préconstruits, déclenchent des transactions de manière fiable (jusqu’à des smart contracts) et optimisent des chaînes de valeur qui traversent les frontières organisationnelles. Des expérimentations laissent entrevoir des agents d’achats capables d’identifier de nouveaux fournisseurs et de négocier des termes, des services client qui orchestrent plusieurs plateformes, et des chaînes de création de contenu dotées d’assurance qualité et de paiements automatisés. La thèse est que le passage de « prompts » isolés à une coordination protocolisée décentralisée transformera la façon dont les entreprises découvrent, intègrent et transigent, et qu’il creusera l’écart entre ceux qui auront ancré des capacités apprenantes et les autres.
Conclusion : comment combler la GenAI Divide
Pour « passer de l’autre côté », trois décisions semblent s’imposer.
Premièrement, privilégier l’achat-partenariat au « tout construire » afin d’accéder plus vite à des briques qui apprennent dans le contexte propre à l’entreprise.
Deuxièmement, responsabiliser les managers de terrain — souvent à l’origine des cas utiles — plutôt que d’attendre une validation centralisée exhaustive.
Troisièmement, sélectionner des systèmes qui s’intègrent profondément aux flux existants, retiennent le contexte, se bonifient avec l’usage et rendent des comptes sur des métriques business.
Les organisations qui persisteront à investir dans des outils statiques et « prompt-dépendants » resteront piégées dans la phase pilote. Celles qui co-développent des agents dotés de mémoire et d’orchestration, adossés à des protocoles d’interopérabilité, verrouilleront des avantages cumulatifs difficiles à rattraper.
Méthodologie et limites
Le rapport s’appuie sur une recherche multi-méthodes conduite entre janvier et juin 2025 : analyse systématique de plus de 300 initiatives publiques, 52 entretiens structurés auprès d’organisations variées et 153 réponses de dirigeants collectées sur quatre conférences sectorielles. La « réussite » est définie comme un déploiement au-delà du pilote avec des KPI mesurables, l’impact ROI étant évalué six mois après le pilote et ajusté à la taille des départements. Les auteurs précisent les limites : échantillonnage non exhaustif, auto-sélection des répondants, hétérogénéité des métriques de succès, observation parfois trop courte pour juger des projets complexes. Les scores de disruption, fondés sur des signaux publics et des appréciations d’entretiens, peuvent ignorer des développements privés. Les pourcentages « build vs buy » et les distributions d’investissements fonctionnels doivent être lus comme directionnels. Pour autant, les tendances — écart pilote-production, avantage des partenariats, ROI back-office, centralité du « learning » — sont robustes sur l’échantillon et convergentes avec les témoignages recueillis.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle