
Legal Services Cheaper, LAWFARE RESEARCH REPORT 26-1, February 2026 (https://www.lawfaremedia.org/article/ai-won-t-automatically-make-legal-services-cheaper):
Beaucoup d’acteurs de l’IA prédisent une transformation rapide des métiers du savoir, et le droit est souvent cité comme un domaine « facile » à automatiser, notamment depuis que des modèles ont obtenu des résultats comparables à l’examen du barreau. Dans le même temps, les services juridiques américains sont chers, tant pour les particuliers que pour les entreprises, et l’on espère que l’IA améliorera l’accès au droit.
Les auteurs soutiennent pourtant l’idée que même si l’IA devient très performante, elle ne fera pas baisser « par défaut » le coût d’obtention des résultats que les clients recherchent (gagner un procès, conclure un deal, sécuriser un droit). Entre la capacité technique et l’accès à des résultats moins coûteux, ils identifient trois verrous : les règles professionnelles (qui limitent l’accès et l’expérimentation), la logique concurrentielle des rapports adverses (qui absorbe les gains de productivité), et la vitesse incompressible des humains (juges, avocats, clients) qui doivent décider et assumer.
Pour comprendre pourquoi l’IA ne suffit pas, l’article rappelle d’abord pourquoi le juridique coûte cher aux États-Unis. Première raison : la qualité d’un service juridique est difficile à évaluer, même après coup. Le client sait rarement si le résultat est dû au talent de l’avocat ou à la solidité intrinsèque du dossier ; il se rabat donc sur des indices indirects (réputation, diplôme, parcours), ce qui limite la concurrence. Deuxième raison : la valeur du travail juridique est souvent « relative ». Dans un litige, ce qui compte n’est pas seulement d’être bon, mais d’être meilleur que l’autre camp ; même en matière contractuelle, chaque partie cherche à obtenir un avantage dans la négociation et la rédaction. Cela nourrit une course aux ressources et aux heures facturables, particulièrement dans le segment des grands cabinets d’affaires, où les tarifs montent fortement. Troisième raison : la réglementation professionnelle, conçue pour protéger le public, limite aussi certains modèles économiques. Les règles sur l’exercice du droit et sur la détention/financement des cabinets réduisent l’arrivée d’acteurs capables d’industrialiser une partie des services (accueil, marketing, facturation, processus) et donc d’exploiter des économies d’échelle, surtout pour les dossiers standardisés de particuliers et petites entreprises.
Le premier verrou concerne précisément ces règles professionnelles. Aux États-Unis, l’« unauthorized practice of law » (UPL) correspond, en bref, à l’interdiction faite à des non-avocats de fournir des prestations considérées comme du conseil juridique personnalisé. Les auteurs insistent sur l’effet dissuasif : si une organisation met à disposition un outil d’IA qui franchit la frontière entre information générale et conseil appliqué à un cas concret, elle peut s’exposer à des sanctions civiles ou pénales selon les États, et surtout à un risque juridique incertain. Cette incertitude, plus que l’existence d’une règle, freine l’innovation et l’accès direct des consommateurs à des outils puissants. Ils illustrent l’enjeu avec des contentieux de masse, notamment le recouvrement de dettes, où une grande partie des défendeurs perdent par défaut faute de répondre, alors que des réponses « guidées » pourraient être produites via des formulaires et, potentiellement, via une IA. Ils citent aussi des épisodes où des acteurs cherchant à automatiser des actes simples ont été attaqués sur le terrain de l’UPL (l’exemple récurrent étant une plateforme de documents juridiques confrontée pendant des années à des procédures et à des accords imposant des limites à son fonctionnement). L’autre partie du verrou réglementaire vise les règles de détention et de partage d’honoraires : si seuls des avocats peuvent détenir/financer une structure de services juridiques, il devient plus difficile de créer des entreprises capables d’investir lourdement dans la technologie, l’expérience client et l’organisation, ce qui limite les formes d’usage « à grande échelle » de l’IA. Les auteurs notent toutefois que l’IA peut aussi réduire des coûts de manière indirecte, en automatisant l’administratif et la relation client (prise de contact, suivi, facturation), qui consomment une grande partie du temps dans les petits cabinets.
Le deuxième verrou est lié à la structure « adverse » du système américain. Les auteurs distinguent clairement trois choses : les moyens engagés (heures, talents, outils), les productions (mémoires, requêtes, contrats, recherches), et les résultats (issue du litige, transaction acceptée, risque réellement réduit). L’IA peut baisser le coût unitaire de certaines tâches et augmenter la production, mais dans un univers où l’issue dépend d’un rapport de forces, si les deux camps deviennent plus productifs, l’équilibre peut simplement se déplacer : chacun produit davantage pour rester au même niveau relatif. Autrement dit, l’IA peut déclencher une course aux écritures, aux recherches, aux demandes, sans que le coût total pour atteindre un résultat donné baisse vraiment. Pour rendre l’idée concrète, les auteurs reviennent sur un précédent : la numérisation de la procédure de production de pièces (la « discovery », phase d’échanges d’informations préalable au procès, très développée aux États-Unis). En théorie, la recherche électronique devait rendre l’examen des documents plus rapide et moins cher ; en pratique, l’explosion des volumes numériques a aussi créé des opportunités de surenchère (demandes très larges, production massive de documents peu utiles, coûts imposés à l’adversaire), avec un modèle économique à l’heure qui peut amplifier la dynamique. La leçon qu’ils en tirent n’est pas que la technologie ne sert à rien, mais que, sans garde-fous procéduraux et incitations adaptées, les gains de productivité sont facilement « consommés » par davantage de production dans la confrontation. Ils étendent ensuite le raisonnement au transactionnel : même sans procès, la négociation et la rédaction contractuelles ont une dimension compétitive (que révéler, comment formuler, comment répartir le risque), et il n’existe pas de limite naturelle au surcroît de clauses et d’analyses que l’on peut ajouter. Ils citent des tendances de fond : des contrats plus longs et plus complexes dans certaines opérations, et des politiques de confidentialité qui s’allongent aussi, ce qui peut être vu soit comme une réponse utile à de nouveaux risques, soit comme un symptôme d’un environnement juridique et contentieux où l’on se protège par accumulation.
Le troisième verrou est la vitesse des humains, c’est-à-dire le fait que, même si l’IA rend la production de travail juridique quasi instantanée, des personnes doivent encore prendre des décisions significatives : des juges doivent trancher, et des parties doivent comprendre et assumer les clauses qu’elles acceptent. En contentieux, si l’IA réduit le coût de dépôt d’une action et facilite la multiplication des écritures, le volume de litiges pourrait augmenter fortement ; les auteurs évoquent des estimations prudentes de hausse de volume, et décrivent plusieurs réactions possibles des tribunaux : rendre l’accès plus difficile (par des filtres procéduraux ou des exigences accrues), limiter ou interdire certains usages de l’IA au prétoire (déclarations obligatoires, sanctions), ou bien déléguer davantage et accepter une baisse de qualité, ou encore laisser les délais s’allonger, ce qui dégrade la valeur réelle de l’accès au juge. Ils observent que des contentieux de masse comme le recouvrement de dettes ont déjà mis sous tension des juridictions étatiques, conduisant parfois à des formes d’industrialisation de la décision qui questionnent la qualité du contrôle. Les auteurs discutent aussi l’idée, parfois avancée, de remplacer le juge par l’IA : ils relaient des objections de plusieurs ordres (cadre constitutionnel fédéral, limites techniques et risques d’influence ou d’erreurs, enjeux de légitimité), et plaident pour un usage choisi et encadré plutôt que subi par saturation. Côté contrats, même si l’IA génère des projets parfaits en quelques secondes, quelqu’un doit encore évaluer ce que ces clauses impliquent pour l’entreprise, ce qui crée un plafond d’accélération si l’on tient à une supervision réelle.
À partir de ces trois verrous, l’article passe aux réponses institutionnelles possibles, en soulignant que l’impact de l’IA dépendra des choix de gouvernance et non seulement des progrès techniques. Sur la réglementation de l’exercice du droit, une première famille de réformes vise à clarifier les frontières de l’UPL et à réduire l’incertitude : soit en créant des statuts intermédiaires de prestataires autorisés pour des tâches ciblées (à la manière de professions de santé « intermédiaires »), soit, de façon plus ambitieuse, en autorisant des non-avocats (y compris via des systèmes d’IA) à fournir de nombreuses prestations tant qu’ils ne se présentent pas comme « avocats » et ne représentent pas en justice, la responsabilité civile jouant alors comme garde-fou de qualité. Une deuxième famille vise les règles de structure et de financement : certains États ont expérimenté des « bacs à sable » réglementaires, permettant à des entités non traditionnelles d’opérer sous conditions et sous supervision, afin de mesurer l’effet sur le coût, la qualité et l’accès. Les auteurs rapportent que les résultats initiaux sont plutôt positifs en termes d’absence de plaintes massives, tout en notant des inquiétudes (prise de contrôle par des investisseurs, financement de contentieux) et des réactions de corps professionnels qui cherchent à restreindre ces expériences. Enfin, une proposition plus systémique consiste à créer un « marché de la régulation » : l’État fixerait des objectifs (accès, qualité, délais) et agréerait plusieurs régulateurs concurrents chargés de certifier et surveiller des prestataires, l’idée étant de stimuler l’innovation réglementaire. Les auteurs relèvent néanmoins des risques classiques (course au moins-disant) et citent des difficultés observées dans un modèle britannique où une autorité-chapeau supervise des régulateurs sectoriels, avec des critiques récentes sur l’efficacité du contrôle dans certains scandales.
Sur l’adjudication, une deuxième série de réformes cherche à réduire la surenchère adverse par une gestion plus active des dossiers : utilisation plus fréquente d’experts nommés par le tribunal, ou de tiers neutres chargés d’encadrer des phases techniques comme la production de documents, afin d’éviter que chaque baisse de coût unitaire ne se transforme en expansion du périmètre et en bataille procédurale. L’article discute aussi l’arbitrage comme voie parallèle : parce qu’il est plus flexible et souvent moins coûteux, il pourrait devenir un terrain d’adoption plus large de l’IA. Les auteurs présentent un débat : certains défendent la possibilité et l’intérêt d’un arbitrage largement assisté, voire rendu par l’IA, tandis que d’autres contestent la compatibilité avec le droit fédéral de l’arbitrage ou craignent une atteinte à la réputation et à la confiance dans le mécanisme. Ils reconnaissent en outre les critiques de fond sur l’arbitrage imposé aux consommateurs par des contrats non négociés. Leur point est plus pragmatique : si, dans certains contextes, les parties choisissent réellement une voie alternative, offrir une procédure technologique (avec des degrés variables de contrôle humain) pourrait soulager les tribunaux, permettre aux justiciables de choisir entre rapidité et niveau de contrôle, et produire des données comparatives utiles sur les performances réelles de l’IA, plutôt que de rester dans l’anticipation.
Enfin, l’article aborde l’évolution du métier. Si le volume de litiges augmente, une réponse directe serait d’augmenter la capacité des tribunaux en recrutant davantage de juges, idée ancienne mais politiquement sensible. Les auteurs discutent des pistes de financement et de gouvernance avancées dans la littérature (commissions bipartites pour dépolitiser l’augmentation des postes, nouvelles sources de financement affectées, mécanismes de contribution de la profession), et soutiennent que, face à une disruption potentiellement forte, cette option n’est pas forcément irréaliste. Dans le monde des entreprises, ils anticipent un déplacement de la valeur du « faire » vers le « juger et orienter » : si l’IA automatise une partie de la production (recherches, premières versions, analyses standard), les juristes internes devraient consacrer plus de temps à comprendre le contexte opérationnel, à arbitrer, à traduire des risques juridiques en décisions business, et à jouer un rôle de conseiller stratégique. Ils décrivent une hiérarchie des tâches, des plus routinières aux plus stratégiques, et en déduisent une implication importante pour la formation : si les tâches d’entrée de carrière sont partiellement automatisées, il faut repenser comment les juniors acquièrent l’expérience qui permet ensuite d’assumer des rôles de supervision et de conseil.
La conclusion est que l’IA ne « répare » pas automatiquement les défauts structurels du marché et de la procédure : elle tend plutôt à les rendre plus visibles et parfois à les amplifier. Sans réformes ciblées sur l’accès (règles professionnelles claires et adaptées), sur les incitations dans les processus adverses (gestion procédurale, voies alternatives), et sur les capacités humaines de décision (organisation des tribunaux, montée en compétences), on risque d’obtenir surtout une abondance accrue de documents et d’actes produits à bas coût, sans baisse proportionnelle du coût d’obtention des résultats qui comptent pour les clients.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données – Entreprise et administration