Chaînes de décision, prestataires et souveraineté numérique dans la haute fonction publique
À mesure que l'action publique s'appuie sur des dispositifs algorithmiques pour affecter des places, authentifier des usagers ou cibler des contrôles, elle s'insère dans des espaces de conception, de maintenance, d'audit et de conformité où se combinent capacités internes, prestataires privés et cadres de contrôle.
Tension structurante : tandis que la souveraineté numérique et l'imputabilité administrative sont réaffirmées, l'action publique dépend de compétences, d'expertises et de données clés détenues hors de l'État.
Cette thèse examine comment la généralisation des systèmes d'intelligence artificielle reconfigure le sommet de l'appareil bureaucratique. Plus précisément, par quels mécanismes redistribue-t-elle l'autorité, l'imputabilité et les prises sur la décision entre élites administratives traditionnelles, profils techniques internalisés et acteurs externalisés ? Comment ces redistributions deviennent-elles durables, au sens où elles sont stabilisées, justifiées et rendues traçables dans l'administration ?
Ces interrogations structurent plusieurs scénarios concurrents de recomposition (conversion par l'expertise technique, hybridation en élite d'interface, ou polarisation durable) dont la validation sera croisée avec les déterminants normatifs et sectoriels.
L'enquête s'ouvre en 2015 avec l'institutionnalisation de la transformation numérique autour de la DINSIC, mobilise une mise en perspective internationale avec le Royaume-Uni, et combine prosopographie, entretiens appuyés sur documents, et deux études de cas articulées selon une logique de variation contrôlée : l'écosystème IA de la DGFiP, bureaucratie de masse où les usages prédictifs sont routinisés depuis les années 2010 et les capacités internes plus développées, et Albert API, plateforme interministérielle d'IA générative développée par Etalab au sein de la DINUM et expérimentée depuis octobre 2025 via l'Assistant IA.
Le régime normatif contemporain connaît une mutation profonde : le passage d'une normativité de la « Loi » à celle de la « Programmation », structurée par des boucles de rétroaction et l'impératif d'efficacité mesurable (Supiot, 2015). La règle n'est plus seulement énoncée mais en partie encodée, agrégée, inférée, puis activée au fil des données et des modèles — ce que l'on peut analyser comme une forme de gouvernementalité algorithmique (Rouvroy et Berns, 2013), qui reconfigure la « raison statistique » de l'État (Desrosières, 1993).
Une deuxième transformation tient à l'infrastructure et aux conditions de possibilité de cette algorithmisation. L'État affirme une souveraineté numérique tout en dépendant d'acteurs privés détenant des outils et des ressources devenus critiques. L'écosystème IA de la DGFiP condense cette tension : bureaucratie de masse disposant de capacités internes significatives en datamining et en IA prédictive, elle n'en reste pas moins tributaire de prestataires pour le développement, la maintenance et l'hébergement de ses infrastructures. Le programme Albert (DINUM) l'illustre différemment : infrastructure d'IA souveraine (hébergement SecNumCloud) reposant sur des briques critiques privées (fournisseurs de modèles, hébergeurs, intégrateurs) et des standards issus de l'industrie.
Un questionnement d'autant plus sensible que l'impératif numérique contraint un État structuré par les grands corps à s'ouvrir aux profils contractuels, au prix d'une pénurie capacitaire (Gally, 2020 ; CGE & IGF, 2023) qui érode la maîtrise d'ouvrage (Cour des comptes, 2020). Il en résulte une friction croissante entre souveraineté proclamée et externalisation effective.
Enjeu central : l'essor de l'expertise IA produit-il une simple translation des répertoires de légitimation, captée par les élites traditionnelles, ou redistribue-t-il substantiellement les sources d'autorité et les circuits de décision ?
Un étalonnage documentaire sera mené sur le cas britannique, dont le Government Digital Service (GDS, 2011) puis la Central Digital & Data Office (CDDO, 2021–2025), désormais réintégrée au GDS, offrent un contraste structuré. L'objectif : dégager ce qui, dans la recomposition française, tient à la dynamique globale de l'IA gouvernementale et ce qui relève de traditions administratives spécifiques (Pollitt et Bouckaert, 2017).
Dispositif méthodologique : corpus documentaire (stratégies, rapports NAO, débats parlementaires), codage comparatif ; mobilité éventuelle à Londres (Sciences Po–LSE). Ce contrepoint sera maintenu si le corpus atteint un seuil de comparabilité suffisant.
Question principale : par quels mécanismes la généralisation des dispositifs d'IA reconfigure-t-elle, au sommet de l'État, l'autorité décisionnelle, les régimes d'imputabilité et les répertoires de légitimation, dans un contexte où les capacités techniques se recomposent entre expertise internalisée et recours à des acteurs externes ?
Comment les ressources liées à l'expertise algorithmique se distribuent-elles au sein de la haute fonction publique, et dans quelles conditions deviennent-elles convertibles en autorité bureaucratique ?
Comment les contextes de production et de maintenance des solutions numériques, incluant l'externalisation sous des formes variées, affectent-ils les séquences d'arbitrage et les mécanismes d'imputabilité ?
Dans quelle mesure les encadrements normatifs et organisationnels (RGPD, AI Act, instances de contrôle) contribuent-ils à stabiliser l'imputabilité et à rendre les dispositifs gouvernables, ou mettent-ils au contraire en évidence les limites du contrôle sur des infrastructures complexes ?
Cette recherche s'inscrit à l'intersection de quatre ensembles de littérature, dans le cadre de la Digital Era Governance (Dunleavy et al., 2008), dont les développements les plus récents décrivent une troisième vague portée par la diffusion de la data science et de l'IA (Dunleavy & Margetts, 2025).
Lacune et promesse empirique : là où les thèses d'Alauzen (2019) et de Bellon (2018) éclairent respectivement les recompositions du guichet numérique et les mobilisations liées à l'internet, la littérature n'éclaire pas la rencontre entre ces dynamiques et un pouvoir administratif structuré par les grands corps. Documenter cette rencontre par une enquête articulant trajectoires des élites et dispositifs techniques constitue la promesse de cette thèse.
Le cadre adopte un programme relationnaliste au langage constructiviste (Corcuff, 2011) et s'organise en trois niveaux hiérarchisés, traversés par la problématique foucaldienne du rapport savoir/pouvoir (Foucault, 1975), mobilisée pour saisir la constitution et la légitimation des expertises comme ressources d'autorité.
Rouvroy & Berns (2013) décrivent le régime de normativité dans lequel s'inscrivent les dispositifs. Mobilisée non comme théorie de l'action, mais comme cadre d'intelligibilité des conditions de possibilité des transformations observées.
Zones d'incertitude (Crozier & Friedberg, 1977) et mécanismes de traduction (Callon, 1986) pour analyser la répartition inégale des prises sur les systèmes d'IA. Les observations méso sont interprétées comme actualisations situées dont l'analyse macro spécifie les conditions de possibilité.
Étude des modalités concrètes par lesquelles les acteurs s'ajustent, négocient et consolident leurs positions au contact des systèmes d'IA.
Dans les systèmes d'IA, les zones d'incertitude se logent dans les choix qui font tenir un dispositif en production et qui engagent des critères de justice, de risque et de responsabilité. Qui arrête le périmètre des données ? Qui tranche un incident de calibration ? Qui délimite les usages autorisés d'un assistant d'IA générative ? Ceux qui savent rendre ces arbitrages lisibles et gouvernables entre registres technique et administratif, via CCTP, tableaux de bord, journaux d'audit et contrôles de conformité, disposent d'une prise différenciée sur la décision.
Ce contrôle s'ancre dans des positions d'intermédiation au sein de réseaux reliant administrations, monde académique et secteur privé — une coding elite (Burrell & Fourcade, 2021) — et se convertit en pouvoir dans des luttes de juridiction autour des standards et des conditions d'usage (Abbott, 1988).
Trois scénarios testables : conversion différentielle par les corps technico-scientifiques (H1), polarisation stable entre élite dirigeante et élite technique (H2b), ou émergence d'une élite d'interface (H2a). Le risque de réification est traité par la triangulation méthodologique et l'épreuve systématique des hypothèses alternatives.
Le volet quantitatif de la prosopographie repose sur six dimensions conçues comme des variables exploratoires — non comme les composantes d'un indice théorique. L'objectif est de cartographier l'espace des positions, puis d'en dégager des configurations typiques éclairant les formes de prise sur les zones d'incertitude.
Traitées comme indicateurs de dotations en amont des rendements. Leur combinaison (ACM/CAH) fait apparaître proximités, oppositions et profils composites, confrontés ensuite aux matériaux qualitatifs. Pour neutraliser le risque de circularité, l'inférence reposera sur le test d'une hypothèse nulle stricte — démontrer que la dotation algorithmique ne constitue pas un simple habillage technologique redoublant des asymétries préexistantes. Variables de contrôle : corps d'origine, génération, voie d'entrée, passage par le secteur privé.
Capacité d'un acteur à détenir ou imposer durablement des conditions non aisément substituables d'accès, d'audit, d'usage ou de réversibilité à des fonctions critiques de l'action publique. Cette définition déplace l'analyse au-delà des proclamations souverainistes, afin d'identifier empiriquement les lieux effectifs de l'arbitrage.
Approche mixte et séquentielle combinant prosopographie quantitative, entretiens qualitatifs et études de cas.
6.5. Éthique et protection des données : consentement éclairé, pseudonymisation dès la transcription, stockage chiffré avec conservation séparée de la clé d'identification. Profils publics traités conformément au RGPD (intérêt légitime, art. 6 §1 f), avec droit d'opposition individuel et suppression des données brutes après la soutenance.
Stratégie d'accès au terrain : approche progressive combinant identification des acteurs-clés, sollicitation de profils périphériques et recours aux anciens agents. Jalon de décision à M+12 : si le volume d'entretiens et de documentation sur Albert API ne permet pas de reconstituer au moins trois séquences d'arbitrage documentées, le cas secondaire sera requalifié en simple contrepoint documentaire et les ressources d'enquête concentrées sur la DGFiP.
La contribution tient à un même geste, décliné sur trois plans.
Le médialab, en codirection avec le CEE, offre un cadre cohérent : les travaux de Cardon sur la puissance des algorithmes (2015 ; 2018) et ceux de Bezes sur le gouvernement par la performance (2009 ; 2020) articulent l'étude des dispositifs numériques et celle des recompositions bureaucratiques.
Les méthodes du médialab (cartographie de controverses) et l'expertise du CEE en prosopographie des élites seront directement mobilisées.
| Phase | M 1-6 | M 7-12 | M 13-18 | M 19-24 | M 25-30 | M 31-36 |
|---|---|---|---|---|---|---|
| Revue littérature & protocole | ||||||
| Corpus documentaire | ||||||
| Prosopographie | ||||||
| Analyses (ACM/CAH) | ||||||
| Entretiens (≈40) | ||||||
| Études de cas | ||||||
| Comparaison UK | ||||||
| Réd. chap. méthodologique | ||||||
| Réd. chap. prosopographique | ||||||
| Réd. chapitres empiriques | ||||||
| Réd. chapitres théoriques | ||||||
| Réd. Intro & Conclusion | ||||||
| Valorisation | ||||||
| Finalisation & dépôt |
Année 1 : consolidation théorique et méthodologique, lancement prosopographie, entretiens exploratoires.
Année 2 : terrain intensif, rédaction méthodologie et prosopographie.
Année 3 : finalisation terrain, rédaction finale, valorisation, dépôt.
Disponible à temps plein et sans contrainte professionnelle.
Convention COFRA avec une administration transversale de l'État (DGFiP, DITP) ou une instance de contrôle (CNIL, Cour des comptes), structurant l'accès au terrain et garantissant la diffusion des résultats (clauses de publication, comité de suivi), sans remettre en cause l'autonomie académique du projet.
Contrat doctoral à Sciences Po — allocation générale ou fléchage thématique — garantissant l'indépendance scientifique, avec possibilité d'enseignements.