Portfolio de Recherche — Projet de thèse doctorale

Gouverner l'État numérisé à l'épreuve
de l'intelligence artificielle

Chaînes de décision, prestataires et souveraineté numérique dans la haute fonction publique

Programme : Doctorat de sociologie, Sciences Po
Unité : médialab
Direction : Dominique Cardon (Pr., HDR)
Codirection : Philippe Bezes (DR CNRS, HDR, CEE)
Candidat : Thibault Lalut, Master Sociologie (EHESS, mention très bien)
élites administratives gouvernementalité algorithmique intelligence artificielle État-plateforme system-level bureaucracy souveraineté numérique externalisation haute fonction publique
Section 2

Problématisation, périmètre et questions de recherche

Le régime normatif contemporain connaît une mutation profonde : le passage d'une normativité de la « Loi » à celle de la « Programmation », structurée par des boucles de rétroaction et l'impératif d'efficacité mesurable (Supiot, 2015). La règle n'est plus seulement énoncée mais en partie encodée, agrégée, inférée, puis activée au fil des données et des modèles — ce que l'on peut analyser comme une forme de gouvernementalité algorithmique (Rouvroy et Berns, 2013), qui reconfigure la « raison statistique » de l'État (Desrosières, 1993).

Une deuxième transformation tient à l'infrastructure et aux conditions de possibilité de cette algorithmisation. L'État affirme une souveraineté numérique tout en dépendant d'acteurs privés détenant des outils et des ressources devenus critiques. L'écosystème IA de la DGFiP condense cette tension : bureaucratie de masse disposant de capacités internes significatives en datamining et en IA prédictive, elle n'en reste pas moins tributaire de prestataires pour le développement, la maintenance et l'hébergement de ses infrastructures. Le programme Albert (DINUM) l'illustre différemment : infrastructure d'IA souveraine (hébergement SecNumCloud) reposant sur des briques critiques privées (fournisseurs de modèles, hébergeurs, intégrateurs) et des standards issus de l'industrie.

Un questionnement d'autant plus sensible que l'impératif numérique contraint un État structuré par les grands corps à s'ouvrir aux profils contractuels, au prix d'une pénurie capacitaire (Gally, 2020 ; CGE & IGF, 2023) qui érode la maîtrise d'ouvrage (Cour des comptes, 2020). Il en résulte une friction croissante entre souveraineté proclamée et externalisation effective.

Enjeu central : l'essor de l'expertise IA produit-il une simple translation des répertoires de légitimation, captée par les élites traditionnelles, ou redistribue-t-il substantiellement les sources d'autorité et les circuits de décision ?

2.1. Délimitation

Niveau d'analyse
Gouvernement des systèmes : architectures, standards, procédures de contrôle et règles d'imputabilité des outils numériques
Population
Définie par implication dans les chaînes socio-organisationnelles : titulaires de postes de direction, profils techniques, acteurs externes pesant sur les arbitrages
Périmètre temporel
Depuis le milieu des années 2010 (institutionnalisation du numérique dans l'État) jusqu'au temps de l'enquête doctorale

2.2. Contrepoint international : Royaume-Uni

Un étalonnage documentaire sera mené sur le cas britannique, dont le Government Digital Service (GDS, 2011) puis la Central Digital & Data Office (CDDO, 2021–2025), désormais réintégrée au GDS, offrent un contraste structuré. L'objectif : dégager ce qui, dans la recomposition française, tient à la dynamique globale de l'IA gouvernementale et ce qui relève de traditions administratives spécifiques (Pollitt et Bouckaert, 2017).

Dispositif méthodologique : corpus documentaire (stratégies, rapports NAO, débats parlementaires), codage comparatif ; mobilité éventuelle à Londres (Sciences Po–LSE). Ce contrepoint sera maintenu si le corpus atteint un seuil de comparabilité suffisant.

2.3. Questions de recherche

Question principale : par quels mécanismes la généralisation des dispositifs d'IA reconfigure-t-elle, au sommet de l'État, l'autorité décisionnelle, les régimes d'imputabilité et les répertoires de légitimation, dans un contexte où les capacités techniques se recomposent entre expertise internalisée et recours à des acteurs externes ?

1
Ressources et positions

Comment les ressources liées à l'expertise algorithmique se distribuent-elles au sein de la haute fonction publique, et dans quelles conditions deviennent-elles convertibles en autorité bureaucratique ?

2
Chaînes de décision et imputabilité

Comment les contextes de production et de maintenance des solutions numériques, incluant l'externalisation sous des formes variées, affectent-ils les séquences d'arbitrage et les mécanismes d'imputabilité ?

3
Souveraineté et gouvernabilité

Dans quelle mesure les encadrements normatifs et organisationnels (RGPD, AI Act, instances de contrôle) contribuent-ils à stabiliser l'imputabilité et à rendre les dispositifs gouvernables, ou mettent-ils au contraire en évidence les limites du contrôle sur des infrastructures complexes ?

Section 4

État de l'art et positionnement

Cette recherche s'inscrit à l'intersection de quatre ensembles de littérature, dans le cadre de la Digital Era Governance (Dunleavy et al., 2008), dont les développements les plus récents décrivent une troisième vague portée par la diffusion de la data science et de l'IA (Dunleavy & Margetts, 2025).

1 — Transformation bureaucratique
De la street-level à la system-level bureaucracy
La discrétion se déplace du traitement des cas vers l'architecture des dispositifs (Bovens & Zouridis, 2002). La « discrétion automatisée » (Zouridis et al., 2019) et les « petites décisions » techniques produisent des effets normatifs majeurs (Roehl & Crompvoets, 2025).

Enjeu empirique : qui occupe ces positions dans le cas français, et comment s'articulent-elles aux élites généralistes plus généralistes ?
2 — Gouvernement numérique & Datafication
Infrastructures informationnelles de l'État
Les data assemblages (Kitchin, 2014) et la « rawification » (Denis & Goëta, 2017) stabilisent des catégories porteuses d'enjeux normatifs. Les architectures deviennent des formes de « sub-politique » (Boullier, 2016).

Angle mort : les acteurs qui les gouvernent.
3 — Opacité algorithmique & Imputabilité
Black box society et ignorance organisationnelle
L'opacité fragilise l'imputabilité (Pasquale, 2015 ; Busuioc, 2021). L'« ignorance organisationnelle » (Kronblad et al., 2024) saisit des zones de non-savoir comme productions administratives protectrices. Le legal protection by design (Hildebrandt, 2015) — inscrire dans l'architecture technique les garanties de l'État de droit — ouvre vers un « constitutionnalisme numérique » (De Gregorio, 2022).

Question : que font concrètement les élites de l'opacité ?
4 — Externalisation & Souveraineté
Déficits de redevabilité et privatisation numérique
Le recours aux prestataires crée des « déficits de redevabilité » (Alon-Barkat et al., 2025). La « privatisation numérique » (Jeannot & Cottin-Marx, 2022) rend parfois indistinguables identités publiques et privées (Cour des comptes, 2024), produisant des infrastructures hybrides (Crawford, 2021) soutenues par un travail humain invisibilisé (Casilli, 2019).

Constat : des infrastructures hybrides défiant les cadres traditionnels de gouvernance.

Lacune et promesse empirique : là où les thèses d'Alauzen (2019) et de Bellon (2018) éclairent respectivement les recompositions du guichet numérique et les mobilisations liées à l'internet, la littérature n'éclaire pas la rencontre entre ces dynamiques et un pouvoir administratif structuré par les grands corps. Documenter cette rencontre par une enquête articulant trajectoires des élites et dispositifs techniques constitue la promesse de cette thèse.

Section 6

Dispositif méthodologique

Approche mixte et séquentielle combinant prosopographie quantitative, entretiens qualitatifs et études de cas.

6.1 — Prosopographie
≥ 150 dirigeants et cadres supérieurs
Administrations centrales et opérateurs impliqués dans la conception, le pilotage ou la régulation de dispositifs numériques. ≈15–20 variables : trajectoires éducatives et professionnelles, mobilités public-privé, position actuelle, réseaux, production symbolique. Effectif permettant des analyses multivariées tout en limitant les risques de réidentification (Lemercier et Picard, 2012 ; Stone, 1971). Données : annuaires, rapports officiels, profils publics (RGPD), entretiens exploratoires.
6.2 — Méthodes d'analyse
ACM, CAH & analyse thématique NVivo
Quantitatif : analyses des correspondances multiples pour identifier la structure de l'espace des positions, classifications ascendantes hiérarchiques pour dégager profils-types. Stabilité des partitions vérifiée par rééchantillonnage (bootstrap).
Qualitatif : analyse thématique (NVivo), attentive aux récits de trajectoire, stratégies de légitimation, rapports aux prestataires et moments d'arbitrage.
6.3 — Entretiens
30 à 40 entretiens semi-directifs
(1) Hauts fonctionnaires de grands corps sans implication directe dans le numérique
(2) Responsables de transformation numérique (DINUM, DSI, Etalab) — cœur de cible
(3) Profils techniques recrutés par l'État (data scientists, ingénieurs IA, designers)
(4) Observateurs privilégiés (anciens responsables, journalistes, chercheurs, syndicaux)
6.4 — Études de cas
Variation contrôlée : DGFiP & Albert API
Cas principal : écosystème IA de la DGFiP — bureaucratie de masse où les usages prédictifs (datamining, ciblage des contrôles) sont routinisés depuis les années 2010, avec des capacités internes plus développées et un recours structuré aux prestataires.
Cas secondaire : programme interministériel Assistant IA / Albert API (DINUM). Infrastructure d'IA générative souveraine, expérimentation auprès de huit ministères pilotes depuis oct. 2025, dépendances aux prestataires.
5 variables de contraste : type d'IA, ancienneté, degré d'externalisation, périmètre organisationnel, niveau de routinisation.

6.5. Éthique et protection des données : consentement éclairé, pseudonymisation dès la transcription, stockage chiffré avec conservation séparée de la clé d'identification. Profils publics traités conformément au RGPD (intérêt légitime, art. 6 §1 f), avec droit d'opposition individuel et suppression des données brutes après la soutenance.

Section 8

Contributions attendues

La contribution tient à un même geste, décliné sur trois plans.

Théorique
Saisir l'IA administrative à partir des médiations qui la rendent opératoire et gouvernable, en situant la ressource de pouvoir dans la prise sur les données, les métriques, l'auditabilité et les conditions d'usage. Suivre la trajectoire de cette prise lorsqu'elle circule au sommet de l'État et se cristallise au fil des positions d'intermédiation. Proposer une lecture de la souveraineté numérique comme propriété distribuée.
Méthodologique
Protocole prosopographique combinant six dimensions de dotation, analysées par ACM/CAH avec vérification de stabilité, entretiens et études de cas en contexte d'opacité — conçu pour être transposable à d'autres terrains confrontés à des mutations technologiques comparables.
Empirique
Cartographie inédite des acteurs de la gouvernance numérique étatique française. À partir de deux cas contrastés — DGFiP (IA prédictive routinisée, capacités internes) et Albert API (IA générative, interministériel) —, reconstitution des chaînes de décision et de responsabilité. Grille d'analyse transposable, ciblant les élites conceptrices plutôt que les populations affectées (Eubanks, 2018 ; Noble, 2018).
Section 10

Calendrier prévisionnel

Intensive Secondaire Écriture Valorisation Mobilité LSE
PhaseM 1-6M 7-12M 13-18M 19-24M 25-30M 31-36
Revue littérature & protocole
Corpus documentaire
Prosopographie
Analyses (ACM/CAH)
Entretiens (≈40)
Études de cas
Comparaison UK
Réd. chap. méthodologique
Réd. chap. prosopographique
Réd. chapitres empiriques
Réd. chapitres théoriques
Réd. Intro & Conclusion
Valorisation
Finalisation & dépôt

Année 1 : consolidation théorique et méthodologique, lancement prosopographie, entretiens exploratoires.

Année 2 : terrain intensif, rédaction méthodologie et prosopographie.

Année 3 : finalisation terrain, rédaction finale, valorisation, dépôt.