Un cas pratique d’injustice algorithmique : l’attribution automatisée des élèves dans les écoles de Göteborg

L’article de Charlotta Kronblad, « Algorithmic Injustice – Gothenburg miscoded school placement algorithm » (in : Algorithmic Rule : AI and the Future of Democracy in Sweden and Beyond, Simon Vinge/Maja Fjoestad (édit.), novembre 2025, p. 21-34 ; https://feps-europe.eu/wp-content/uploads/2025/09/Algorithmic-rule.pdf) présente et analyse un cas survenu à Göteborg en 2020, lorsque la ville a introduit pour la première fois un système algorithmique pour attribuer les places dans les écoles publiques. L’objectif initial était conforme à une tendance générale dans les administrations publiques : utiliser des outils numériques pour gérer plus efficacement les ressources, prendre des décisions plus cohérentes et optimiser l’allocation de services sociaux, ici les places scolaires. En Suède, la numérisation de la décision publique est considérée comme nécessaire pour faire face à des contraintes budgétaires, au manque de personnel et à la complexité croissante des tâches administratives.

À cette époque, l’usage d’algorithmes pour les décisions automatisées était autorisé dans les agences nationales, mais pas encore dans les municipalités, où les algorithmes ne devaient servir qu’à assister la décision humaine. Ce point juridique jouera un rôle central dans l’affaire.

Le système implanté à Göteborg associait les préférences déclarées par les parents, l’adresse des élèves, la capacité des écoles et les règles juridiques fixées par le droit de l’éducation. Ce dernier prévoit que les enfants doivent en principe accéder à l’école choisie par leurs parents, sauf si cela empêcherait un autre enfant d’accéder à une école proche de son domicile. Lorsque les places sont limitées, la pratique juridique impose d’évaluer la distance à l’école en se fondant sur la distance réelle à pied, et non sur une simple distance à vol d’oiseau, afin de refléter la réalité des déplacements quotidiens.

Or l’algorithme utilisé en 2020 avait été configuré pour calculer les distances en ligne droite, ignorant les contraintes géographiques de la ville, notamment la présence d’un grand fleuve qui divise Göteborg. L’erreur n’était pas spectaculaire techniquement. Ce n’était pas un système d’intelligence artificielle complexe ni auto-apprenant, mais un code déterministe utilisant de mauvais paramètres de distance. Cependant, les conséquences ont été massives. Des centaines d’enfants ont été affectés dans des établissements situés parfois à plus de dix kilomètres de chez eux, souvent de l’autre côté du fleuve, avec des trajets nécessitant plusieurs correspondances en tram, bus et ferry. De nombreux parents découvrirent ces affectations de manière soudaine, sans explication préalable, lors de la publication des décisions. Les familles ont constaté que des enfants habitant dans la même rue, voire dans le même immeuble, étaient envoyés dans des écoles différentes. Les regroupements de classes et de quartiers, qui avaient jusque-là assuré une continuité sociale, se trouvèrent brutalement dispersés.

Face au mécontentement croissant, la municipalité a reconnu que certaines décisions dépassaient la limite interne fixée de huit kilomètres et proposa de réexaminer les cas les plus extrêmes. Cependant, la majorité des affectations problématiques furent maintenues. L’audit municipal publié en 2021 confirma plusieurs erreurs : utilisation de distances à vol d’oiseau, prises en compte insuffisantes des préférences parentales, erreurs dans les adresses de certaines écoles, communication lacunaire entre l’administration scolaire et les responsables politiques. L’audit révéla également que l’autorité scolaire n’avait effectué que des contrôles ponctuels, par crainte que des révisions manuelles introduisent des biais humains, ce qui revient à avoir accordé une confiance excessive à un système qu’elle ne maîtrisait pourtant pas pleinement.

L’auteure de l’article, également mère d’un enfant concerné, a choisi de ne pas faire appel de la décision individuelle d’affectation, mais d’introduire un recours visant la légalité du processus dans son ensemble. L’objectif était de faire reconnaître que les décisions avaient été automatisées en violation du droit applicable aux municipalités, et de demander qu’en conséquence l’ensemble des affectations soit réexaminé. Pour ce faire, il aurait été nécessaire que le tribunal examine le code et son mode de fonctionnement. Or l’administration ne l’a jamais communiqué, malgré les demandes.

Devant le tribunal administratif, la ville a soutenu que les fonctionnaires avaient pris les décisions finales et que l’algorithme n’était qu’un outil d’aide. Le tribunal a estimé que la charge de la preuve reposait sur la requérante, laquelle devait démontrer le caractère automatisé de la décision. Ne pouvant accéder au code, cette preuve était matériellement impossible à fournir. Le tribunal n’a pas exercé son pouvoir d’investigation pour requérir le système auprès de la ville. L’appel et la demande à la Cour administrative suprême ont été refusés, sans que le fond ne soit examiné.

Selon l’auteure, cette affaire illustre ce qu’elle nomme une « injustice algorithmique », composée de deux dimensions. D’abord, une injustice sociale : des décisions erronées ont été prises, affectant concrètement la vie d’enfants et de familles, sans possibilité de réparation. Ensuite, une injustice juridique : le système juridique lui-même s’est révélé incapable de corriger ou même d’examiner l’erreur, faute de mécanismes adaptés pour appréhender des décisions fondées sur des systèmes numériques opaques.

Le texte souligne que le problème ne tient pas uniquement à la complexité technologique, mais aussi aux comportements institutionnels. Il met en évidence des processus d’ignorance active ou involontaire : l’administration n’a pas vérifié les résultats avant publication ; elle a minimisé les alertes des développeurs ; elle a restreint l’accès à l’information ; elle a présenté le système comme un simple outil de soutien ; et les juridictions ont appliqué des règles procédurales conçues pour un monde où les décisions administratives sont traçables et compréhensibles par des humains. Ce cumul de comportements crée une sorte de « boîte noire institutionnelle » qui n’est pas seulement technique, mais également sociale et juridique.

Pour éviter que cette situation ne se reproduise, l’auteure propose plusieurs évolutions. Les systèmes décisionnels publics doivent être accompagnés d’une obligation de transparence accessible, non seulement technique mais procédurale. Les règles de preuve et de contrôle juridictionnel doivent être adaptées, notamment en renversant la charge de la preuve lorsque l’information pertinente est entre les mains de l’administration. Il faudrait permettre aux tribunaux d’examiner directement la légalité des algorithmes et des paramètres utilisés, et non se limiter à des contestations individuelles décision par décision. Enfin, l’accès effectif aux droits ne doit pas dépendre des compétences techniques ou des ressources individuelles des familles.

En somme, ce cas montre qu’une numérisation de la décision publique peut renforcer l’efficacité, mais peut également produire des dommages structurels si elle n’est pas accompagnée de garanties réelles de transparence, de contrôle et de responsabilité. La technologie n’est pas ici le principal danger ; le risque provient de l’incapacité du système administratif et judiciaire à reconnaître et corriger ses effets lorsqu’ils deviennent injustes.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans Droit administratif général, intelligence artificielle, Protection de la personnalité, Protection des données, est tagué , , , , , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire