Déclaration conjointe d'une coalition d'auteurs, interprètes et ayants
droits des secteurs culturels et créatifs de l'UE, concernant le troisième
projet de code de bonnes pratiques prévu par le Règlement IA à destination des
modèles d’IA à usage général.
Le troisième projet de
code de bonnes pratiques compromet les objectifs de la loi sur l'IA,
contrevient au droit de l'UE et ignore l'intention du législateur européen –
Nous ne pouvons pas le soutenir.
L’un des objectifs
fondamentaux du règlement sur l’IA est de permettre aux auteurs, aux
interprètes et aux ayants droit d’exercer et de faire valoir leurs droits en
imposant aux fournisseurs d’IA à usage général (GPAI) la mise en place des
mesures pour se conformer à la législation européenne sur le droit d'auteur,
notamment en effectuant un « résumé suffisamment détaillé » du contenu utilisé
pour l’entraînement des modèles. Le législateur européen a reconnu cette
exigence comme un élément clé pour favoriser le développement responsable de
l’IA en Europe et protéger les secteurs culturels et créatifs, moteurs du
paysage culturel et économique de l’Union.
Cependant, la troisième
version du code de bonnes pratiques sur l’IA à usage général s’éloigne encore
davantage de cet objectif. Elle génère une insécurité juridique, interprète de
manière erronée le droit d’auteur européen et affaiblit les obligations établies
par le règlement sur l’IA lui-même. Au lieu d’instaurer un cadre robuste
conforme à la loi, ce code abaisse le niveau d’exigence à un point tel qu’il ne
fournit aucune aide concrète aux auteurs, interprètes et autres ayants droit
pour exercer ou faire respecter leurs droits. Plus fondamentalement, il ne
garantit pas non plus que les fournisseurs d’IA à usage général respectent le
droit d’auteur européen ou le règlement sur l’IA.
Nous avons participé de
manière constructive au processus d’élaboration du code de bonnes pratiques et
avons formulé des commentaires substantiels sur ses versions précédentes, en
soulignant de graves lacunes affectant l’ensemble des secteurs créatifs. Toutefois,
ces remarques ont été largement ignorées ou rejetées par les rédacteurs du
code. Il est donc regrettable que cette troisième version ne remplisse pas les
exigences de respect des obligations prévues par le règlement européen sur l’IA
et qu’elle ne puisse être adoptée sans améliorations significatives. Une
absence de code serait préférable à un texte aussi profondément défaillant.
Cette nouvelle version
réduit encore davantage l’obligation d’assurer le respect du droit d’auteur
européen et des exigences du règlement sur l’IA. En plusieurs endroits, elle se
limite à exiger des fournisseurs d’IA à usage général qu’ils fassent des « efforts
raisonnables » pour se conformer au droit d’auteur de l’UE. Or, ces « efforts
raisonnables » ou simples incitations à adopter des mesures ne suffisent pas à
garantir le respect du cadre juridique européen.
Le projet de code
affaiblit également la responsabilité des fournisseurs d’IA à usage général en
matière de diligence raisonnable en cas d’utilisation de bases de données
tierces pour l’entraînement de leurs modèles. Cette approche risque non
seulement d’éliminer toute obligation significative de conformité avec le droit
d’auteur européen et le règlement sur l’IA, mais aussi d’encourager les
fournisseurs à se tourner vers des contenus illicites.
De plus, cette
troisième version continue de vider de leur substance les droits des auteurs,
des interprètes et des producteurs de choisir les modalités selon lesquelles
ils souhaitent réserver leurs droits. Elle ne fournit aucune directive claire
sur les obligations des fournisseurs d’IA à usage général en matière de respect
de ces réserves de droits. Le code suggère même que combiner l’adoption de
mesures techniques de contrôle d’accès et des « efforts raisonnables » pour
exclure une liste limitée de sites de piratage suffiraient à garantir la
condition « d’accès licite » aux contenus protégés. Or, cet accès licite est
une condition obligatoire pour bénéficier des exceptions de fouille de textes
et de données (TDM) lorsqu’elles s’appliquent. Ce projet ne respecte donc pas
les standards fixés par le droit d’auteur européen et ne prend pas en
considération les conditions dans lesquelles les contenus piratés sont
accessibles et distribués en ligne.
La troisième version
libère par ailleurs les modèles à usage général de toute exigence de
transparence sur les méthodes qu’ils emploient pour respecter des mécanismes de
réserve de droits. Ces derniers ne seraient plus tenus d’indiquer s’ils
respectent ou non les réserves exprimées par les auteurs, interprètes et autres
titulaires de droits, ni comment ils s’y conforment. Malgré notre opposition
forte et des arguments détaillés sur l’insuffisance de cette approche, le
fichier robots.txt reste la seule méthode reconnue par le code, tandis que les
autres méthodes de réserve de droits sont ignorées ou reléguées au rang
d’option facultative, en contradiction directe avec le droit européen.
En outre,
l’introduction d’un mécanisme de dépôt de plaintes en matière de droit d’auteur
est dénuée de substance : le code ne prévoit aucunement les mesures que les
fournisseurs d’IA à usage général devraient prendre pour résoudre ces plaintes,
le réduisant ainsi à une simple formalité sans valeur effective.
Le code de bonnes
pratiques devrait mettre en place des mesures garantissant le respect des deux
principes fondamentaux du droit d’auteur : l’obligation d’obtenir une
autorisation préalable et l’interdiction des utilisations non autorisées des
œuvres protégées. Il devrait également préciser, comme l’a récemment souligné
la Vice-présidente exécutive Henna Virkkunen en réponse à une question
parlementaire, que les obligations du règlement sur l’IA s’appliquent dès lors
qu’un fournisseur d’IA à usage général met son modèle sur le marché de l’UE,
quel que soit le lieu de son établissement ou de son entraînement.
Le code de bonnes
pratiques doit être accompagné d’un modèle efficace pour fournir un « résumé
suffisamment détaillé du contenu utilisé pour l’entraînement », permettant aux
titulaires de droits d’exercer et de faire effectivement valoir leurs droits.
Une transparence réelle et exploitable sur les contenus utilisés à des fins
d’entraînement est non seulement atteignable, mais peut être mise en œuvre avec
un effort technique et financier minimal. L’invocation abusive du secret des
affaires pour dissimuler des infractions irait à l’encontre de cette obligation
et priverait les ayants droit de leur droit fondamental de propriété.
L’intention du
règlement européen sur l’IA est de favoriser le développement d’une
intelligence artificielle responsable tout en garantissant la pérennité et la
croissance des secteurs culturels et créatifs sur le territoire européen. Or,
en totale contradiction avec cet objectif, la troisième version du code de
conduite sur l’IA à usage général fixe un cadre de mise en œuvre qui affaiblit
les objectifs du règlement, contrevient au droit de l’UE et ignore l’intention
du législateur européen.
En conséquence, cette troisième version est totalement inacceptable. Nous ne pouvons pas soutenir le code de conduite sur l’IA à usage général dans sa forme actuelle. Plutôt renoncer à ce code qu’un texte aussi profondément défaillant.