1. Première publication des lignes directives eIDAS pour l’IA (18 juillet 2025)
Bruxelles pose enfin un cadre opérationnel après l’adoption du règlement AI Act. Ces lignes trouvent un écho direct dans l’article 25 du règlement eIDAS : toute preuve électronique, y compris générée par IA, ne peut plus être écartée uniquement pour motif technologique.
2. Définition ciblée des modèles concernés
Les obligations s’appliquent aux systèmes à usage général générant du texte, code ou vidéo, dépassant 10^23 FLOP de puissance de calcul. Idéalement, tout modèle dépassant ce seuil devient potentiellement qualifié de « systémique ».
3. Phase transitoire pour modèles existants
Les modèles commercialisés avant le 2 août 2025 bénéficient d’un délai de deux ans (jusqu’en 2027) pour se conformer, mais cette tolérance est strictement encadrée : le non-respect peut entraîner des sanctions rétroactives.
4. Responsabilités différenciées selon le rôle
Seuls les acteurs modifiant substantiellement un modèle à usage général à haut risque seront soumis aux mêmes obligations que les développeurs du modèle. Les utilisateurs finaux restent exonérés, sauf clause contractuelle contraire.
5. Transparence de l’entraînement : un flou problématique
Les exigences sont vagues : que signifie un “résumé suffisamment détaillé” des sources d’entraînement ? Pour les juristes, ce manque de précision pose un risque réel de contentieux, notamment en matière de propriété intellectuelle.
⚖ Synthèse
L’Europe invente un équilibre prudent entre innovation technologique et protection des droits. Ce premier pack de lignes directrices donne une lisibilité bienvenue, mais il laisse aussi d’importantes questions encore ouvertes, notamment sur la responsabilité juridique, les droits d’auteur dans les chaînes de génération, et l’assurance des modèles.
Et ce n’est que le début : mon prochain post portera sur le « Digital Fairness Check », le dispositif qui devrait compléter ce cadre IA… sans ennuyer vos neurones dès maintenant 😉



