La France accélère sa digitalisation avec un recours croissant à l’IA dans les services administratifs.
A Tirana, l’Albanie vient de franchir un cap inédit : le 11 septembre 2025, le gouvernement albanais a nommé une intelligence artificielle, “Diella”, ministre chargée des marchés publics.
⚙️ Le fait inédit
“Diella”, dont le nom signifie soleil en albanais, était initialement une simple assistante virtuelle de la plateforme e-Albania.
Elle se voit désormais confier l’évaluation et l’attribution des appels d’offres publics, avec pour mission officielle : « garantir une gestion 100 % libre de corruption ».
Une première mondiale.
Mais derrière l’innovation, se pose une question fondamentale : peut-on confier une compétence régalienne à une entité sans personnalité juridique ni responsabilité politique ?
⚖️ Les enjeux constitutionnels
Le principe de responsabilité ministérielle.
Une IA, dépourvue de personnalité juridique, ne peut ni prêter serment, ni rendre des comptes.
Le Conseil d’État français, dans son rapport L’intelligence artificielle et l’action publique (2022), rappelait d’ailleurs que « l’usage de l’IA doit toujours s’inscrire dans une logique de responsabilisation humaine et de loyauté algorithmique ».
Un ministre virtuel en est, par nature, l’antithèse.
🏛️ Les implications en droit de la commande publique
L’attribution d’un marché public est un acte administratif produisant des effets juridiques sur des tiers.
Or, selon l’article 22 du RGPD, nul ne peut faire l’objet d’une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques à son égard, sauf garanties appropriées.
Cette garantie suppose un contrôle humain effectif.
Sans un encadrement clair de l’intervention de Diella (supervision, voies de recours, traçabilité), toute décision d’attribution pourrait être entachée d’illégalité.
Les opérateurs économiques évincés disposeraient d’un fondement solide pour contester la validité d’un tel acte, au titre du défaut de compétence de l’auteur.
🤖 Les risques de biais et de non-conformité
Depuis son adoption en 2024, l’AI Act classe les systèmes d’IA utilisés pour l’attribution de prestations et de services publics parmi les systèmes à haut risque.
Ces systèmes doivent garantir la traçabilité des décisions, l’explicabilité des algorithmes et un contrôle humain permanent.
Aucune information publique ne confirme que Diella respecte ces exigences.
Le risque est donc double :
- Biais discriminatoires ou erreurs de notation non détectées ;
- Vulnérabilité juridique d’un système décisionnel sans responsabilité clairement définie.
🔭 Un paradoxe européen
Alors que l’Albanie cherche à démontrer sa modernité pour rejoindre l’Union européenne, cette nomination pourrait au contraire fragiliser sa compatibilité avec l’acquis communautaire :
absence de personnalité juridique, non-respect du RGPD, violation potentielle du droit au recours effectif garanti par l’article 47 de la Charte des droits fondamentaux de l’UE.
Ce cas souligne la ligne de crête sur laquelle évoluent les États européens : entre ambition technologique et préservation des principes de l’État de droit.
💬 L’expérience albanaise illustre l’urgence d’un cadre juridique clair pour encadrer l’usage de l’IA dans les fonctions régaliennes.
Confier une compétence ministérielle à une IA, sans personnalité ni responsabilité, revient à vider de sa substance le principe de légalité et à brouiller la chaîne de responsabilité démocratique.
Le défi n’est plus technologique, il est constitutionnel.



