IA et droit d’auteur : « Une création 100 % IA ne peut être protégée »
L’intelligence artificielle n’est plus une simple perspective futuriste réservée aux laboratoires de la Silicon Valley. Elle s’est installée au cœur des entreprises, où elle rédige, code, crée et analyse avec une célérité inédite. Derrière ce gain de productivité spectaculaire, des questions juridiques fondamentales surgissent : qui possède réellement les contenus générés par l’IA ? Qui est responsable en cas d’erreur manifeste ? Et comment exploiter ces outils sans mettre en péril le patrimoine immatériel de son entreprise ?
Pour Sophie Everarts de Velp, avocate en droit du numérique et fondatrice du cabinet Mutatis Legal, ces interrogations ne peuvent plus être ignorées. « J’encourage vivement l’utilisation de l’IA, je l’utilise moi-même au quotidien et cela me fait gagner un temps fou », explique-t-elle. Mais cet enthousiasme doit s’accompagner d’une certaine vigilance juridique.
Selon elle, l’IA s’impose désormais comme un outil de travail incontournable. « Dire aujourd’hui à un salarié de ne pas utiliser l’IA reviendrait presque à lui interdire l’accès à son ordinateur ou à Internet », souligne-t-elle. Reste que cette omniprésence technologique s’accompagne encore d’un cadre juridique en pleine construction.
Le mythe de la protection des créations automatisées
Le point le plus contre-intuitif pour les dirigeants concerne la protection juridique des contenus générés par l’intelligence artificielle. Contrairement à une idée largement répandue, une image, un texte ou un code produit exclusivement par une IA n’appartient juridiquement à personne.
« La réponse est non lorsqu’on se demande s’il y a des droits d’auteur sur une création entièrement générée par une IA », tranche Sophie Everarts de Velp. «Une œuvre doit être créée par un humain pour pouvoir éventuellement être protégée par le droit d’auteur, si elle est suffisamment originale. De plus, l’IA n’ayant pas de personnalité juridique, elle ne peut pas être titulaire de droits. »
Quant à l’utilisateur qui se contente de formuler une instruction, le fameux prompt, son intervention est généralement jugée insuffisante par les tribunaux. « Juste écrire un prompt ne suffit pas. Il faut démontrer un véritable travail humain significatif, des choix libres et créatifs, dans le processus de création », explique l’avocate.
Au sein de l’UE, il ne faut pas faire de dépôt pour qu’une œuvre soit protégée par le droit d’auteur, c’est automatique si les conditions sont remplies. Alors pour mieux comprendre l’impact de l’IA sur le droit d’auteur, il faut se tourner vers d’autres pays.
La justice américaine l’a confirmé dans une affaire devenue emblématique. En 2025, la United States Court of Appeals for the District of Columbia Circuit a validé la décision de l’U.S. Copyright Office refusant d’enregistrer les droits d’auteur sur une image générée entièrement via une intelligence artificielle par Stephen Thaler.
Les juges ont néanmoins estimé que l’œuvre résultait essentiellement d’un processus autonome de la machine et ne pouvait donc pas être protégée par le droit d’auteur, qui exige une contribution créative humaine identifiable. La conséquence est majeure : dans de nombreux cas, ces productions tombent automatiquement dans le domaine public. Un concurrent pourrait donc, en théorie, réutiliser les mêmes visuels ou un code similaire sans que l’entreprise dispose de moyens juridiques immédiats pour s’y opposer.
La Cour suprême des Etats-Unis a refusé de se saisir de ce cas début mars 2026, confirmant la position aux USA : œuvre faite par une IA, pas de protection par le droit d’auteur.
Vers l’émergence d’un nouveau régime juridique ?
Face à cette situation, certains juristes plaident pour l’émergence d’un cadre juridique spécifique aux œuvres générées avec l’assistance de l’intelligence artificielle.
Sophie Everarts de Velp cite notamment certaines décisions rendues en Chine, où un tribunal a considéré l’IA comme un simple outil technique au service de l’auteur, comparable à un appareil photo pour un photographe.
Certains dossiers du Copyright Office ont été acceptés, lorsqu’une collaboration humain-IA a eu lieu, mais seulement parce que l’auteur a pu démontrer le travail humain significatif (par exemple, le cas d’une ébauche faite à la main et améliorée ensuite par IA. Les traits faits par l’humain ont été protégés par le droit d’auteur).
Cette approche repose sur un principe simple : la protection juridique pourrait être reconnue lorsque l’humain conserve un rôle créatif central (des choix libres et artistiques) et identifiable dans le processus.
Dans ce contexte d’incertitude, la question de la preuve devient essentielle. L’avocate conseille aux créateurs et aux entreprises de documenter leur processus de travail. Captures d’écran, étapes de conception ou versions intermédiaires peuvent constituer des éléments précieux pour démontrer, en cas de litige, qu’une véritable contribution humaine a façonné l’œuvre finale.
L’obligation légale de maîtrise et de formation
Avec l’entrée en vigueur progressive du cadre européen sur l’intelligence artificielle, la question de la gouvernance interne devient centrale.
Sophie Everarts de Velp souligne que les entreprises devraient mettre en place des dispositifs de formation et un cadre interne clair lorsqu’elles utilisent l’IA dans un contexte professionnel. L’objectif n’est pas d’alourdir inutilement les structures, mais d’assurer une compréhension minimale du fonctionnement des outils et des risques associés.
« Il faut former les équipes, même de manière simple. Comprendre comment fonctionne l’IA, comment rédiger un bon prompt, quels sont les risques en matière de confidentialité et de responsabilité », explique-t-elle. Pour elle, cette formation constitue un outil de prévention indispensable.
Elle insiste également sur la nécessité d’une charte interne définissant les usages autorisés, les outils validés par l’entreprise et l’obligation de validation humaine avant toute transmission à un client.
Selon elle, si cette logique de maîtrise venait à être affaiblie dans les futures évolutions réglementaires, cela constituerait un recul préoccupant, notamment face au développement du phénomène de « Shadow AI », c’est-à-dire l’usage d’outils non encadrés dans un cadre professionnel.
Les risques des « hallucinations » de l’IA
Autre danger bien identifié : les « hallucinations » des modèles d’intelligence artificielle. Ces situations surviennent lorsque la machine produit des informations erronées : citations juridiques fictives, références inventées ou données inexistantes, tout en les présentant avec une apparente certitude.
« L’IA peut être un excellent assistant, mais elle ne doit jamais devenir l’auteur final d’un document », avertit Sophie Everarts de Velp.
Des incidents ont déjà été recensés dans plusieurs secteurs, y compris dans le domaine juridique, où des professionnels ont transmis des dossiers contenant des jurisprudences fictives générées par l’IA.
Pour éviter ces dérives, l’avocate insiste sur un principe simple : toute production générée par une intelligence artificielle doit faire l’objet d’une validation humaine avant d’être transmise à un client, un partenaire ou une autorité.
Confidentialité et réflexes de survie
La question de la confidentialité constitue un autre point de vigilance majeur. Par défaut, certains outils d’intelligence artificielle utilisent les données fournies par les utilisateurs pour améliorer leurs modèles.
Un salarié qui insère un document interne, une stratégie commerciale ou une invention en cours de développement peut donc, sans le savoir, exposer des informations sensibles.
Pour limiter ces risques, Sophie Everarts de Velp recommande plusieurs réflexes simples : anonymiser systématiquement les données sensibles, privilégier les versions professionnelles des outils et vérifier les paramètres de confidentialité afin de désactiver l’entraînement des modèles sur les conversations (« améliorer le modèle pour tous »).
De l’idée au contrat : sécuriser ses actifs
Enfin, l’avocate rappelle un principe fondamental souvent mal compris par les entrepreneurs : une idée, en tant que telle, n’est jamais protégeable par le droit de la propriété intellectuelle. Seule sa matérialisation concrète peut l’être.
« Lorsqu’on est au stade du concept ou de la méthode, on ne peut pas protéger l’idée par la propriété intellectuelle », souligne Sophie Everarts de Velp.
Dans ces situations, la protection passe avant tout par le droit des contrats. L’accord de confidentialité ou NDA reste l’outil le plus efficace pour sécuriser un projet avant sa réalisation.
Autre erreur fréquente : penser que le paiement d’une prestation implique automatiquement la cession des droits. En réalité, sans clause écrite et précise de transfert de propriété intellectuelle, le créateur reste juridiquement titulaire de son œuvre (ex : un développeur IT ou un graphiste).
Envie d'aller plus loin ?
Cet article est tiré de l'interview accordée par Sophie Everarts de Velp au Figaro. Retrouvez la conversation complète dans l'épisode du podcast « Regards de dirigeants », disponible sur Spotify et toutes les plateformes de podcast.
🎧 Écouter l'épisode sur Spotify : https://open.spotify.com/episode/5dSpEupFj5GZCVCHqLpGXL?si=f5b97a3f445d457d