Une œuvre protégée plagiée par ChatGPT, un style artistique reproduit sans autorisation par Midjourney ; dans quel tribunal assigneriez-vous… un algorithme ?

À l’heure où les IA génératives révolutionnent la création de contenus, une question se pose : pourrait-on poursuivre directement une intelligence artificielle en justice pour contrefaçon ou plagiat ? En l’état actuel du droit, la réponse est NON pour des raisons comme :

➡️ L’absence fondamentale de personnalité juridique de l’IA

Une IA n’est pas reconnue comme une personne juridique dans notre ordre juridique. Elle ne dispose ni de droits, ni d’obligations propres, ni de patrimoine distinct.

Conséquence, elle ne peut ni ester en justice, ni être attraite devant un tribunal, quel que soit son degré de sophistication. Comme l’a rappelé récemment le Règlement européen sur l’IA adopté le 13 mars 2024, ces systèmes demeurent juridiquement des outils, et non des sujets de droit.

➡️ La chaîne de responsabilité humaine : qui répond des actes de l’IA ?

Si l’IA elle-même échappe à toute responsabilité directe, celle-ci doit être recherchée parmi les acteurs humains ou les entités morales impliqués :

1. Les développeurs/fournisseurs de l’IA :

  • Leur responsabilité peut-elle être engagée du fait des données utilisées pour l’entraînement sans autorisation préalable ?

  • Un défaut de conception ou l’absence de garde-fous suffisants pour prévenir les contenus contrefaisants constitue-t-il une faute ?

  • Exemple concret : Dans l’affaire « Getty Images c. Stability AI » (janvier 2023), Getty poursuit Stability AI pour avoir utilisé ses images protégées pour entraîner Stable Diffusion sans autorisation.

2. L’entreprise déployant ou utilisant l’IA :

  • C’est souvent l’acteur le plus exposé juridiquement.

  • Cas pratique : Votre direction marketing utilise une IA générative pour créer des visuels qui reproduisent sans autorisation des éléments d’une œuvre préexistante. Votre entreprise sera en première ligne face aux réclamations des titulaires de droits.

  • La responsabilité peut être contractuelle (vis-à-vis des clients) ou délictuelle (vis-à-vis des titulaires de droits lésés).

3. L’utilisateur final (le « prompteur ») :

  • Pourrait-il être considéré comme l’auteur ou co-auteur de la contrefaçon ?

  • La qualification dépendra largement de la nature du prompt, de l’intention démontrée, et de l’usage fait du résultat.

  • Exemple jurisprudentiel récent : Dans l’affaire « New York Times c. OpenAI » (décembre 2023), le NYT allègue qu’OpenAI a entraîné ses modèles sur ses articles protégés et que les outputs reproduisent parfois textuellement ces contenus.

➡️ Les défis juridiques majeurs pour les contentieux liés à l’IA

Plusieurs obstacles spécifiques complexifient l’action en contrefaçon dans ce contexte :

1. La problématique de la traçabilité et de la preuve :

  • Comment établir qu’un output spécifique de l’IA dérive directement d’une œuvre protégée présente dans son set de données d’entraînement ?

  • L’opacité algorithmique (phénomène de « boîte noire ») rend particulièrement ardue la démonstration du lien causal.

2. L’appréciation des critères traditionnels de la contrefaçon :

  • Les notions classiques de ressemblance, d’originalité ou d’impression d’ensemble sont-elles encore opérantes ?

  • Comment qualifier juridiquement l’imitation d’un « style » artistique par l’IA, qui ne reproduit pas littéralement une œuvre mais s’en inspire manifestement ?

3. La dimension internationale et les conflits de lois :

  • Les infrastructures d’IA étant souvent réparties entre plusieurs juridictions, quel droit national appliquer ?

  • Les exceptions de text and data mining varient considérablement selon les territoires (plus restrictives en Europe qu’aux États-Unis).

Conclusion :

Pour reprendre une analogie que l’on connait bien : on ne poursuit pas le marteau qui a servi à commettre un méfait, mais bien la personne qui le tenait.

Si l’IA échappe aujourd’hui à toute responsabilité juridique directe, la question de l’imputabilité de la contrefaçon qu’elle peut générer se déplace vers les acteurs humains de la chaîne de valeur.

Le Règlement européen sur l’IA, qui entrera pleinement en vigueur en 2027, apportera certaines clarifications, notamment en matière de transparence sur les données d’entraînement des modèles. A voir ce qu’il en sera pour les États-Unis et la Chine.

Facebook
Pinterest
Twitter
LinkedIn

Derniers articles