Services publics et IA, dans le respect absolu des droits et libertés


Thème : Intelligence Artificielle


Télécharger la contribution

 

Nous, socialistes, considérons que le respect des droits des usagers des services publics face au déploiement des algorithmes et des systèmes d’IA doit être au cœur des priorités de notre « société numérique ».

L’accélération de la transformation numérique du monde avec le déploiement de l’intelligence artificielle, et ses conséquences en matière d’atteinte aux droits et aux libertés, reste à ce jour sous-investie par les responsables politiques. Pourtant, aujourd’hui, de nombreux services publics utilisent des algorithmes, que ce soit pour calculer le montant des impôts, des prestations sociales, pour attribuer des places en crèche ou organiser l’accès à l’enseignement supérieur, ou encore pour cibler les contrôles dans la lutte contre la fraude sociale ou fiscale. Des systèmes d’intelligence artificielle de plus en plus complexes sont aussi déployés pour identifier par exemple des évènements à risque dans l’espace public ou encore pour apporter des réponses écrites plus rapides aux usagers des services publics en générant automatiquement du texte (combien d’administrés connaissent Albert, l’agent conversationnel (ou chatbot) de l’administration française ?).

ALERTER

Cette « algorithmisation de l’administration » n’est pas sans conséquences pour les usagers, d’autant plus qu’il est aujourd’hui légal pour l’administration, dans certains cas, de prendre des décisions individuelles de façon entièrement automatisée. Reste que si l’utilisation de ces systèmes peut présenter des avantages, elle comporte également des risques pour les usagers des services publics. Au-delà des risques pour la vie privée, nous considérons que la vigilance doit être extrême sur plusieurs aspects : la nécessité d’un contrôle humain des systèmes utilisés, l’importance de l’effectivité du principe de transparence et l’absence de biais discriminatoires des systèmes.

C’est d’ailleurs la raison pour laquelle la Défenseure des droits avait consacré un rapport à ce sujet publié au mois de novembre 2024 (« Algorithmes, systèmes d’IA et services publics : quels droits pour les usagers ? »), en portant des recommandations pour que soient garantis les droits des usagers.
Dans son rapport annuel d’activité 2024 publié le 25 mars 2025, la Défenseure des droits, qui appelle à un sursaut collectif face aux ruptures de droits, alerte à nouveau spécifiquement sur l’impact croissant de l’intelligence artificielle sur les droits et libertés des personnes.

Lorsqu’une décision administrative est dite « partiellement automatisée », un agent public doit effectuer une action positive, concrète et significative. La Défenseure des droits relève cependant que cette intervention se révèle parfois inexistante – comme c’est le cas par exemple pour la procédure d’affectation en lycée Affelnet, ou pour Parcoursup au moment de l’entrée dans l’enseignement supérieur.
Elle peut être parfois biaisée, car les personnes qui interviennent dans la prise de décision individuelle ont tendance à avaliser les résultats produits par le système sans les questionner. Quand il a pris une décision fondée sur un traitement algorithmique, le service public responsable doit par ailleurs, et sauf exception, fournir un certain nombre d’informations à l’usager concerné, mais également au public. Cette exigence légale de transparence, qui découle d’un principe constitutionnel, doit permettre de comprendre cette décision pour pouvoir en débattre, voire la contester utilement. Sur ce point, nous pouvons être inquiets de ce que la Défenseure des droits révèle : le fait que les obligations d’information sont parfois, voire souvent, peu ou mal respectées.
Nous entendons replacer au cœur de la décision publique et de l'organisation administrative le principe – démocratique – de « supervision humaine » qui renvoie à la nécessité pour les individus de « garder la main » sur les systèmes IA utilisés afin que leur fonctionnement ne devienne pas complètement autonome, et en cela objets de potentielles instrumentalisations et dérives illibérales.
Les principes et les moyens d'une ré-humanisation des services publics en lien avec l'utilisation de l'IA doivent être réaffirmés et déployés dans toutes les branches de l'administration.
L’intervention humaine doit être réaffirmée à tous les niveaux : pour l’édiction des règles par l’algorithme ou le système d’IA ; pour la supervision du système pendant son exploitation et lors des tests et audits ultérieurs ; au moment de prendre, sur la base du résultat d’algorithmes ou de systèmes d’IA, la décision administrative individuelle ; comme obligation en cas de recours administratif contre la décision individuelle.
Nous appelons à une résistance proactive contre toute forme de perte d’esprit critique des agents publics face aux résultats des algorithmes et des systèmes d’IA avec lesquels ils doivent composer.

(IN)FORMER

Nous estimons que, pour accompagner un développement du numérique et de l’IA dans l’administration qui soit « vertueux » et « protecteur » des droits et libertés, il faut permettre à tous les décideurs et agents publics de s’approprier les enjeux des discriminations algorithmiques.

La 4e édition d’une formation en ligne proposée par la Défenseure des droits, en collaboration avec le Conseil de l’Europe, et intitulée « IA et discrimination », s’est tenue début 2025. Nous proposons que cette formation qui s’adresse actuellement aux agents d’autorités indépendantes (Défenseur des droits, CNIL, CNCDH, ARCOM, Autorité de contrôle prudentiel et de résolution [ACPR], etc.), mais également aux personnes travaillant sur ces enjeux dans les ministères, les collectivités territoriales et les associations, soit prochainement et rapidement déclinée en plusieurs formats pour devenir un module de formation initiale ou continue obligatoire pour l’ensemble des agents publics.

À ce jour, elle constitue un premier outil précieux car elle présente les notions clés, des exemples d’utilisation des systèmes automatisés dans différents domaines, la réglementation applicable liée aux données personnelles, à la non-discrimination et propre aux systèmes d’IA, mais aussi les questions encore non résolues en matière de lutte contre les discriminations algorithmiques. Elle vise ainsi à permettre une compréhension des mécaniques discriminatoires qui peuvent être à l’œuvre dans ces systèmes.

Un tel plan de formation devra être conçu – et régulièrement actualisé – pour permettre d’accompagner efficacement (en y associant réellement chaque agent à hauteur de ses besoins) la conduite du changement dans une administration transformée par le développement de la société numérique et de l’IA.

Nous définissons également comme une priorité la formation des responsables politiques en charge des affaires publiques, et donc de ses cadres dirigeants et élus, sur ces sujets. Un catalogue de formations dédiées devra rapidement être proposé dans le cadre de la FNESER.

CONTRÔLER

Dans les années à venir il sera aussi stratégique et nécessaire de prévoir des contrôles spécifiques, solides et indépendants du travail administratif sur tout sa chaîne, dès lors qu’il incorpore l’IA, en établissant un cadre qui ne reposerait pas que sur des codes de conduite et une autorégulation par les acteurs, sans sanction immédiate en cas de violation.

Nous devons veiller à ce que l’anticipation de toutes les atteintes aux droits et libertés devienne également la règle, et même un « reflexe » administratif incorporé à toutes les administrations mobilisant l’IA. Il est notamment urgent d’acter qu’il faut prévoir, à l’échelle nationale, des études d’impact sur les droits fondamentaux pour tous les systèmes d’IA dits « à haut risque » (santé, sécurité, droits).

Une réflexion continue doit également s’imposer sur la liste des « systèmes interdits » avec la question urgente de l’inscription des systèmes biométriques permettant l’identification des personnes dans l’espace public, catégorisant les personnes et « reconnaissant » leurs émotions, ainsi que les systèmes de police prédictive. Ces systèmes présentent en effet des risques majeurs d’atteinte aux droits fondamentaux des individus.

Parmi les systèmes d’IA à haut risque qui devront en priorité être surveillés et étroitement contrôlés, il faudra apporter une attention particulière à ceux utilisés dans l’éducation, en lien avec le Règlement européen sur l'intelligence artificielle .

PROTÉGER

La première des protections à offrir aux usagers des services publics est de faire du droit à l’information une réalité.
La transparence de l’action administrative n’est pas une question nouvelle, et précède largement celle de l’algorithmisation de l’action publique. La tension entre le pouvoir discrétionnaire de l’administration d’une part et les droits associés qui se sont développés au fil au temps en faveur de la transparence d’autre part en témoigne.
Parmi les décisions actuellement prises par ou avec l’aide d’algorithmes, il existe des décisions administratives qui ne faisaient pas toujours l’objet d’une motivation claire et pouvaient être prises selon des procédures opaques. Ici, c’est justement l’utilisation de systèmes algorithmiques ou d’IA qui peut apporter de la transparence, parce que leurs règles de fonctionnement doivent être définies.

Le Parti socialiste doit porter avec force le fait que l’algorithmisation de l’administration doit contribuer à renouveler l’impérative transparence de l’action publique.

Sur ce sujet, les enjeux de transparence concernent tout autant l’information individuelle que l’information collective. Pour répondre à une ambition forte d’« émancipation » des administrés en contexte d’IA, nous proposons un investissement massif dans une communauté de recherche au niveau national sur le thème de l’explicabilité des systèmes IA. Fournir des explications ou des justifications véritablement compréhensibles par des utilisateurs-usagers profanes doit devenir la règle. Il s’agit d’un enjeu démocratique sur lequel la France doit se positionner, en valeurs et en moyens.

Pour protéger pleinement les usagers de l’administration, nous réaffirmons que l’un des principaux défis des années à venir sera de garantir les droits de recours individuels et collectifs auprès des futures autorités nationales compétentes et du bureau européen de l’IA.

D’immenses chantiers et problématiques concernent, à l’échelle européenne comme nationale, la question des services publics en lien avec le déploiement des algorithmes et des systèmes d’IA. Et c’est à tous les échelons, du local à l’international, que l’exigence politique doit se porter.

Dans son combat sans cesse renouvelé pour les services publics, le Parti socialiste a donc pleinement vocation à s’emparer, et à devenir moteur, de toutes les questions relatives au respect des droits des usagers et à produire une doctrine régulièrement actualisée en prise avec les besoins et usages d’une administration de et par l’IA.


Contributeur.ices :

Isabelle Rocca (75, Secrétaire nationale adjointe à la Société numérique), Alexane Riou (75, SNA Enseignement supérieur et recherche), Franck Gagnaire (37, SN Transition Numérique), Alain Delmestre (75, SNA Transition énergétique), Arthur Delaporte (14, Député), Emma Rafowicz (75, Députée européenne, Présidente des JS) Corinne Narassiguin (93, Sénatrice), Yannick Trigance (93, SN Education, Conseiller régional), Valentin Guenanen (75, Maire adjoint Paris 14), Karim Ziady (75, CN), François Comet (75, SNA, Conseiller d'arrondissement 5e), Brigitte Marciniak (56, Secrétaire de section, CNC), François Briançon (31, Premier secrétaire fédéral), Anne Ferreira (02, Première secrétaire fédérale), Mathieu Delmestre (75, BNA, Adjoint au maire Paris 12ème), Yasmine El Jaï (75, SN Formation interne à l’égalité), Dorine Bregman (75, SNA, Adjointe au maire Paris Centre), Morgan Bougeard (75, CNs, Secrétaire national des Jeunes socialistes), Olivier Galiana (29, CNC, SF), Ahmed Baltagi (75, Section Philippe Farine), Laure Aourir (75, CF), James Connolly (75, Section Philippe Farine), Alexandre Goutagny (93, CNC, Secrétaire de section Villemomble), Pierre-Emmanuel Charon (75, Section Philippe Farine), Delphine Lauricella (971, BF), Estelle Picard (79, CN), Bernard Fernandes (93), Juillet Albert (75), Fabrice Matteucci (69), Gérard Mengant-Suss (75, CF, BF), Jean-Christophe Bejannin (75, Trésorier et membre du BFA), Laurent Bégon-Margeridon (63, Adjoint au maire de Vic le Comte), Christian Dermy (56), Monique Leblanc (75, Section Philippe Farine), Franck Guillory (75, Co-secrétaire Paris Centre), Bruno Salleras (75), Alain Genel (75), Loreto Vargas (75), Luc Charpentier (12, Secrétaire de section et fédéral), Chantal Hémard (75), Florian Dufour Florian (69), Eric Zuccarelli (75, Trésorier Section Philippe Farine), Arthur Courty (75), Richard Truchi (25, CF), Pham Théard (65, CF), Stéphane Jouanny (42, CF), Olivier Aguzou (11), Nadine Delmestre (75, CF), Lilian Brayat (35), Vincent Monadé (75), Gamishev Todor (75), Pierre Yves Calais (75), Noëlle Picard (79), Patrick Picard (79), Georges Terrier (78, CF), Loreto Vargas (75), Louis Daumal (75, SN JS)


Télécharger la contribution

Veuillez vérifier votre e-mail pour activer votre compte.