Créations en agence avec l’aide de l’IA – enjeux

La définition de l’intelligence artificielle est vaste, et dépasse largement le cadre du présent article.

Il est du reste parfois difficile d’en deviner l’usage effectif, à mesure que l’intelligence artificielle est de plus en plus intégrée à des outils d’utilisation courante, comme les outils de bureautique (lorsque l’éditeur de texte « suggère » une modification stylistique), les moteurs de recherche ou les filtres de retouche d’images sur les réseaux sociaux par exemple. Cela pose du reste certains problèmes, notamment éthiques, qui seront abordées dans le dernier article de cette série.

Les outils d’aide à la création visuelle sont particulièrement délicats à manier en termes juridiques, comme les outils de type Dall-E™ ou MidJourney™.

Ces outils basés sur l’IA utilisent des images provenant d’innombrables sites web accessibles publiquement (appelés « data sets » ou « données d’entrainement ») pour entraîner leur réseau de neurones et restituer des résultats. Il n’existe pas (encore) de jurisprudence qui définisse si cet usage est légalement admissible (ce que le monde anglo-saxon définit par fair use) mais la question fait l’objet actuellement de controverses. D’une part parce que dans certains pays, les bases de données sont protégées pour elles-mêmes (en Suisse, faute de protection ad hoc, la loi contre la concurrence déloyale trouve application) mais également parce que les images utilisées dans ces bases de données sont très souvent elles-mêmes protégées par des droits d’auteur et ne sont pas dans le domaine public.

En outre, les bases de données contiennent très souvent en marge des images aussi des annotations (metadonnées) si les images ont déjà été traitées (notamment une description textuelle ajoutée à chaque image). Le traitement de l’image appartient au propriétaire de la base de données, mais les droits d’auteur sur l’image elle-même continuent d’appartenir au créateur originaire de l’image (ou de l’œuvre). Il est souvent nécessaire de décortiquer les conditions contractuelles acceptées par l’auteur d’une œuvre lorsqu’il l’a mise en ligne dans une base de données accessible sur internet, afin de déterminer si son utilisation pour entrainer des algorithmes d’intelligence artificielle était admissible ou non (par exemple, des photos de vacances uploadées sur la plateforme d’images Flickr™).

Les questions juridiques se posent ainsi à plusieurs niveaux : d’une part quant à l’utilisation des données d’entraînement mais également quant au régime juridique applicable aux images générées à l’aide de ces outils d’intelligence artificielle qui se basent sur des images créées par des tiers.

Plusieurs procès ont déjà été intentés sur la première question, par exemple Microsoft, GitHub et OpenAI™ ont été accusés dans le cadre d’une action collective en justice de violer le droit d’auteur en permettant à Copilot™, un système d’IA générateur de code, d’utiliser des milliards de lignes de code publiées en open source dans des répertoires librement accessibles et de ressortir des extraits de code sans fournir le crédit aux auteurs requis en vertu des licences open sources applicables. Getty Images™ poursuit aussi l’éditeur de Stable Diffusion™, alléguant que la société a copié son contenu pour entraîner son générateur d’images IA. Twitter™ (désormais « X ») accuse Microsoft «d’entraîner illégalement» ses technologies d’intelligence artificielle (IA) à partir des données de Twitter qu’elle aurait avalé massivement en utilisant des interfaces API publiques.

Au vu de ce qui précède, les agences sont confrontées au dilemme de savoir comment exploiter ou s’inspirer des résultats obtenus par des outils d’IA sans tomber dans le plagiat ? L’output ne reproduit pas nécessairement les éléments de forme des œuvres originaires mais parfois des collisions peuvent arriver et une œuvre demeure reconnaissable.

La bonne nouvelle c’est que les règles applicables existent et ne sont pas nouvelles. La question pour l’agence vise essentiellement la distinction entre une œuvre dérivée et œuvre originale : une œuvre dérivée consiste en une création qui a un caractère individuel mais qui a été conçue à partir d’une ou plusieurs œuvres préexistantes, (encore) reconnaissables dans la nouvelle œuvre. Pour éviter le plagiat, la nouvelle création ne doit pas nécessairement faire totalement disparaitre l’œuvre préexistante mais les expressions caractéristiques de celles-ci ne doivent plus être reconnaissables. Si celles-ci le sont encore, l’accord de l’auteur de l’œuvre originaire est nécessaire pour utiliser l’œuvre dérivée, ce qui n’est pas sans poser des problèmes, en particulier d’identification.

Par exemple, l imitation du style sans adapter une œuvre préexistante est libre car le style en tant que tel n’est pas protégé par le droit d’auteur. Ainsi, un artiste reproduisant le style cubiste en peignant 3 femmes, ne viole pas le copyright des héritiers de Picasso ; toutefois si le style est unique à un artiste, le créateur pourrait se voir en revanche reprocher du parasitisme (par exemple si l’on reprend l’idée des célèbres portraits en négatif d’Andy Wahrol).

Il existe des outils disponibles en ligne pour comparer si une image déterminée « ressemble » fortement à une œuvre, tels que Google Image™ ou TinyEye™ pour ne citer que ceux-là. Selon le résultat, notamment en termes de similitude, si les œuvres sont proches, la question d’un risque de plagiat pourra se poser mais la réponse pourrait dans certains cas être difficile à apporter. Un mauvais esprit mentionnerait que précisément de tels outils se fondent également sur l’intelligence artificielle pour analyser le contenu et afficher les résultats… Mais une telle précaution est recommandée et évite ainsi déjà un risque de plagiat grossier.

Ainsi et eu égard à ses clients, une agence créative devrait adopter comme bonne pratique de faire état de manière transparente que les livrables sont également le fruit d’un recours aux outils d’IA et expliquer leur genèse. Dans les conditions contractuelles de l’agence, celle-ci devra sans doute se référer aux conditions elles-mêmes accordées par les outils d’intelligence artificielle. En effet, il n’est pas toujours certain que les résultats (« output ») proposés par l’Intelligence artificielle puissent être cédés totalement au client (si celui-ci l’exige), de sorte que parfois seule une licence (exclusive ou non) sur l’œuvre pourra être accordée.

Par exemple, OpenAi indique[1] que les créateurs qui souhaitent publier du contenu créé en partie avec l’API OpenAI sous leur nom (par exemple, un livre ou un recueil de nouvelles) sont autorisés à le faire aux conditions suivantes : the role of AI in formulating the content is clearly disclosed in a way that no reader could possibly miss, and that a typical reader would find sufficiently easy to understand. OpenAi met également un modèle de texte à disposition, modèle qui ne formule aucune ambiguïté sur le transfert de responsabilité entièrement sur les épaules du créateur : The author generated this text in part with GPT-3, OpenAI’s large-scale language-generation model. Upon generating draft language, the author reviewed, edited, and revised the language to their own liking and takes ultimate responsibility for the content of this publication.

Il est ainsi très clair que la responsabilité de ne pas violer les droits préexistants de tiers est entièrement reportée sur l’agence, même si la validité d’une telle clause pourrait toujours être discutée devant une autorité judiciaire.

Le cabinet P&TS se tient volontiers à disposition pour examiner avec vous plus en détail les conditions d’utilisation et recommander des limitations à insérer dans vos conditions contractuelles.

[1] https://openai.com/policies/sharing-publication-policy