Bonjour à tous,

Depuis deux ans, tout le monde entraîne ses modèles sur des œuvres protégées en espérant que ça passe.

Mais cette époque est révolue.

Pour la première fois en Europe, une juridiction reconnaît qu’OpenAI a violé le droit d’auteur dans le cadre de l’entraînement de ChatGPT.

PLONGEONS DANS LE SUJET

Fin de la zone grise sur le droit d’auteur ?

Le sujet du mois

Si une IA peut ressortir une œuvre protégée, c’est qu’elle l’a mémorisée.

Ce 11 novembre, le Tribunal de Munich a constaté que ChatGPT est capable de restituer des paroles de chansons protégées par le droit d’auteur.

Pas une imitation, pas une variation inspirée.
Les paroles elles-mêmes.

Sauf que mémoriser une œuvre dans un système pour pouvoir la réutiliser ensuite, c’est juridiquement une reproduction.

Et une reproduction sans autorisation, c’est une violation du droit d’auteur.
OpenAI a plaidé que le modèle “apprenait” à partir des données, sans les stocker.

Mais le tribunal balaye l’argument : les paroles sont bel et bien présentes dans le système, accessibles en tapant les bonnes instructions.

Autrement dit, il ne s’agit plus d’une simple influence issue d’un jeu de donnée.
On peut démontrer une restitution des œuvres ayant servies à l’entraînement.

Fin de partie pour le Text & Data Mining

Deuxième pilier qui s’effondre : l’exception de Text & Data Mining (TDM).

Le TDM désigne l’analyse automatique, temporaire et à grande échelle de textes ou de données (souvent protégés par le droit d’auteur).

Le but affiché pour bénéficier de l’exception ?

Extraire de ces textes des informations ou des tendances, sans autoriser leur stockage ou réutilisation tels quels.

Depuis des mois, beaucoup d’acteurs tentaient de faire passer l’entraînement massif des modèles comme une simple opération de TDM.

Sauf que le Tribunal de Munich conclut l’inverse.

Le TDM n’autorise ni le stockage durable, ni l’intégration de l’œuvre dans un système qui pourra la régurgiter, ni la restitution ultérieure de tout ou partie du contenu.

Assimiler l’entraînement d’un modèle d’IA à du TDM devient un raccourci sans fondement.

Et cette décision ferme une porte sur laquelle beaucoup misaient pour se dire “dans une zone grise”.

En clair :

  • Tant que vos traitements restent de l’analyse temporaire, vous pouvez, sous conditions, invoquer le TDM.

  • Dès que vous basculez dans un système capable de restituer les œuvres, vous changez de régime, et il vous faut une licence.

Mais ce n’est pas tout.
Parce que si votre modèle n’est pas à toute épreuve, la faute peut retomber sur vous.

À qui la faute ?

La décision statue sur l’idée selon laquelle la responsabilité viendrait des utilisateurs et de leurs prompts.

Que “ce sont les utilisateurs qui demandent du contenu illicite”, que les plateformes n’auraient pas de griefs.

Le Tribunal de Munich met fin à cette logique :

Celui qui collecte les données, les intègre dans le modèle et contrôle la technologie, c’est le fournisseur.

C’est lui qui orchestre l’entraînement.
C’est lui qui définit les volumes, les sources, les filtres, les garde-fous.

C’est donc vers lui que se tourne la responsabilité lorsque le système restitue des œuvres protégées.

Pour les éditeurs de modèles, cela signifie qu’il ne sera plus possible de se cacher derrière les usages des clients.

Les prompts ne créent pas l’offense.
Ils révèlent simplement ce qui a été mis dans le modèle.

Licences obligatoires, nouvelle règle du jeu

De cette décision émerge un principe.

Toute IA capable de restituer un contenu protégé doit disposer d’une licence.

Si votre modèle peut ressortir une chanson, un roman, un paragraphe d’article, un visuel protégé, vous devez avoir sécurisé les droits correspondants en amont.

Ce principe n’est pas circonscrit à OpenAI ou à l’Allemagne.

Il est appelé à s’appliquer à l’ensemble du marché européen, par le jeu des convergences jurisprudentielles et du futur cadre de l’IA.

Problème : le timing est discutable.
Cette décision intervient à la veille du Digital Omnibus.

Un ensemble de révision des grandes lois numériques de l’UE, qui rouvre et modifie des textes existants (dont le règlement IA).

Officiellement, pour alléger la réglementation et faciliter les investissements étrangers, comme ceux en provenance des Etats-Unis.

Mais affaiblir le droit d’auteur maintenant, après une condamnation de cette ampleur, serait difficilement compréhensible.

L’UE renverrait un signal désastreux : celui d’une Europe plus soucieuse de ménager les intérêts de la tech américaine que de défendre ses propres créateurs.

Que faire si vous développez ou utilisez des modèles d’IA ?

Depuis quelques mois, je vois deux profils d’acteurs.

Ceux qui auditent leurs sources, contractualisent avec les ayant droit, cloisonnent les jeux de données, testent leurs modèles, documentent tout.

Et ceux qui se disent encore “On verra bien, de toute façon tout le monde fait pareil.”
Pour ces derniers, la décision de Munich est un avertissement très clair.

Si vous entraînez des modèles sur des contenus tiers, vous devez être capable de répondre à quelques questions :

  • Savez-vous précisément d’où viennent vos données ?

  • Avez-vous testé vos modèles sur des œuvres connues ?

  • Avez-vous des autorisations explicites pour les œuvres protégées ?

  • Pouvez-vous démontrer, en cas de contrôle, que vos traitements restent dans le champ du TDM ou que vous disposez des droits nécessaires ?

Ignorer cette nouvelle donne, c’est vous exposer au même sort qu’OpenAI.
Mais sans avoir ni la taille, ni les moyens de faire face à un contentieux de cette ampleur.

Surtout qu’après cette première condamnation, les ayant droit vont s’organiser.
Bref, cette décision ne signe pas la fin de l’IA, loin de là.

Elle acte que l’innovation ne dispense pas de respecter la propriété intellectuelle, mais doit être prise au sérieux, dès la conception.

Mieux vaut ajuster sa stratégie maintenant que d’attendre d’être le prochain exemple cité dans un jugement.

Pensez-vous qu'un assouplissement de la régulation est nécessaire pour favoriser l'innovation européeenne ?

Login or Subscribe to participate

Pourquoi nous écouter ?

Avec Hashtag Avocats, nous accompagnons 300+ entreprises sur la conception responsable, la rédaction des politiques d’usage et les plans de réponse.

Votre plan d’action

  • Cartographiez vos données : identifiez précisément vos sources d’entraînement, les œuvres protégées concernées et sur quel fondement vous traitez ces données (TDM ou licence).

  • Testez vos modèles : mettez en place une campagne de tests pour vérifier si votre IA est capable de restituer, même partiellement, des œuvres connues (paroles, extraits de livres, articles, visuels).

  • Sécurisez les droits : négociez des licences avec les ayant droit ou les sociétés de gestion, et documentez noir sur blanc les autorisations obtenues pour les jeux de données sensibles.

  • Mettez à jour vos contrats : revoyez vos CGU, contrats clients et accords partenaires pour clarifier la responsabilité, la propriété intellectuelle et les garanties de conformité.

  • Encadrez l’usage interne de l’IA : adoptez une politique IA écrite, formez les équipes et interdisez l’ingestion de contenus tiers sans validation juridique.

Vous voulez un point rapide sur vos risques et vos leviers d’action ?

Je prends toujours 30 minutes pour comprendre votre enjeu et vous donner une première feuille de route.

À très vite,
Arnaud

Comment avez-vous trouvé cet article ?

Login or Subscribe to participate