Sommaire
La mobilisation
Le 23 mars est annoncée comme une journée européenne de mobilisation. La campagne semble notamment très forte en Allemagne, où de nombreux rassemblements sont d’ores et déjà prévus, ou ont déjà eu lieu.
À quelques mois des élections européennes de mai, une campagne spécifique a été lancée pour interpeller les parlementaires européens avec un message clair : « Si vous votez pour l’article 13, nous ne voterons pas pour vous ». Le site pledge2019.eu offre pour cela un outil simple pour appeler les législateurs, et propose une vidéo très réussie pour expliciter les dangers de l’article 13. Elle fait intelligemment le lien avec les menaces similaires contenues dans le projet de règlement européen de censure sécuritaire (voir la campagne de La Quadrature du Net contre ce texte). Un grand merci au groupe framalang de Framasoft pour leur aide dans la traduction des sous‐titres en français !
Pour résumer l’enjeu en quelques mots : cet article préconise de fait la généralisation du filtrage automatisé rendu de facto obligatoire par une responsabilisation disproportionnée des plates‐formes de partage sur les contenus publiés par leurs utilisateurs et utilisatrices. Avec pour seuls garde‐fous des injonctions contradictoires et hors‐sol. Un système qui conduira à l’assèchement de tout ce qui fait la richesse, le sel d’Internet.
La campagne pledge2019 s’affiche comme complémentaire à celle, plus ancienne mais toujours active, de saveyourinternet.eu. Campagne qui propose de nombreuses ressources argumentaires ainsi qu’une liste des parlementaires, avec informations de contact et position sur l’article 13 lors du vote du 12 septembre 2018 préalable aux négociations interinstitutionnelles.
Ces deux campagnes s’appuient sur la même action, essentielle : contacter les parlementaires et convaincre une majorité d’entre eux de se montrer à la hauteur de l’enjeu et de voter contre cette directive !
Il s’agit ainsi de créer un rapport de force, de rendre concret pour les membres du Parlement européen la forte opposition contre l’article 13. Bien sûr les arguments sont importants, mais ce qui est déterminant c’est l’acte lui‐même. Chaque courriel, chaque appel s’ajoute à la masse et donne corps à la mobilisation.
Quelques propositions de briques argumentaires
Appeler peut paraître impressionnant. Personnellement ce n’est vraiment pas un exercice qui m’est naturel (je déteste parler au téléphone!). Envoyer un courriel en amont, même très banal peut aider. Par exemple en relayant un article ou une tribune et en demandant ce qu’il ou elle en pense. Si parfois le premier appel est un peu maladroit, ça devient généralement de plus en plus fluide, et on se prend rapidement au jeu. Personnellement j’ouvre généralement sur mon inquiétude de la généralisation des filtres de contenu. Ça permet de sonder rapidement la position de la personne au bout du fil.
À noter qu’en général c’est un collaborateur ou une collaboratrice qui répond au téléphone. S’il ne faut pas hésiter à demander à s’adresser à l’eurodéputé, échanger avec une personne de son équipe reste très utile.
Voici des briques argumentaires que j’aime avoir sous les yeux pour contrer les blablas habituels. Cela m’aide aussi à m’adapter en fonction de la direction que prend la conversation. Par exemple, parmi les pro‐article 13, certaines personnes nient le filtrage, d’autres évoquent des gardes-fous (inexistant).
Définition des « plates‐formes de partage » extrêmement large
La définition des « plates‐formes de partage » est extrêmement large :
- le critère « nombre significatif d’œuvres » est très flou…
- le critère de lucrativité est très peu adapté à la réalité des pratiques en ligne ;
- l’« optimisation » des contenus, ce qui veut tout et rien dire…
L’empilement d’exceptions, à chaque fois ajoutée dès lors qu’un rapport de force suffisant a été atteint, comme pour l’exception pour les plateformes de développement et de partage de logiciel libre, témoigne de l’imprécision du champ d’application de la directive. Et plus globalement de sa mauvaise rédaction. Sans quoi il n’y aura pas lieu de retirer autant de « secteur »/« acteur » qui ne sont pas « la cible du texte » pour reprendre les propos réguliers de ses défenseurs.
Dynamique de l’article 13
Sur la dynamique de l’article 13 : passer des accords de licence, et à défaut mettre en place des mesures pour empêcher la (re)mise en ligne de contenus contrevenant au droit d’auteur, sinon prendre le risque de voir sa responsabilité engagée. Or, aucun accord de licence ne peut couvrir l’ensemble des œuvres potentiellement soumises au droit d’auteur susceptibles d’être mis en ligne sur une plateforme… Donc, afin de respecter la directive les plates‐formes de partage devront quoi qu’il en soit être en mesure d’assurer la « non‐disponibilité » de certains contenus. Donc, opérer un filtrage.
En l’état actuel, l’obligation qui incombe aux intermédiaires techniques est de retirer promptement des contenus « manifestement » illicites qui leur sont indiqués. Ce qui est appelé le « notice and take down ». L’article 13 porte en son cœur l’idée que les prestataires doivent empêcher la remise en ligne d’un contenu. On parle souvent de « keep down ». Ce qui est un renversement fondamental de l’équilibre actuel (qui date de la directive e-commerce de 2000).
Mesures de reconnaissance de contenus et de filtrage
Reste donc les mesures de reconnaissance de contenus, de filtrage. Je vois trois possibilités :
- restreindre l’accès aux seules œuvres identifiées par les accords de licence, c’est‐à‐dire des œuvres sur catalogue, aligner en rayon avec les têtes de gondole, les promotions, etc. — Internet = la Fnac ; donc utiliser un système basique d’identification basé sur les « empreintes numériques » des œuvres. Choix que l’on pourrait qualifier de « moindre résistance ». À mon avis pour un certains nombres de pro-article 13, la situation se limite à ça, et ils ne voient pas le problème ;
- « Louer » les services de filtrage dominant (content ID de Google, Audible Music®, etc.) → qui nécessitent la transmission d’informations commerciales (« à forte valorisation commerciale ») pour fonctionner ;
- le développer eux‐mêmes (pour Google cela a représenté un coût d’environ 60 M€, et visiblement cela n’a pas suffit vu que la directive est présentée comme indispensable pour en palier les manques).
Filtrage automatisé
Il s’agit dans tous les cas de filtrer les contenus pour identifier ceux qui sont soumis ou non au droit d’auteur, et soumis ou non à un accord d’exploitation. Étant donné le volume concerné, cela ne peut être qu’automatique. Nier l’obligation d’un filtrage automatisée revient à nier les faits.
Inanité du rappel à l’interdiction de surveillance généralisée. On ne peut opérer un filtrage sans examiner l’ensemble des contenus pour en extraire ceux qui sont en violation. Niveau CE2 a vu de nez. Il s’agit d’une remise en cause d’un principe posé par la directive e‐commerce (2000/31/EC) : l’interdiction pour les États membres d’imposer aux prestataires de la société de l’information de mettre en place une surveillance généralisée des contenus qui transitent par leur service. Cela s’appuie sur la fameuse distinction hébergeur / éditeur.
S’il est possible de questionner sa pertinence, notamment vis‐à‐vis des « GAFAM », c’est un principe fondateur : un intermédiaire technique n’a pas à connaître des contenus qu’il héberge ! Je suis d’ailleurs d’avis que la question n’est pas tant de s’interroger sur la pertinence d’appliquer ou non le statut d’hébergeur à Google & Co, mais de traiter ces entités comme des « mutantes » qui ont pris une position beaucoup trop centrale : donc plutôt que de chercher à leur coller une définition légale, mener des actions politiques pour déconstruire leur position devenue incontournable.
Avec certaines interlocutrices ou interlocuteurs j’ai trouvé que c’était une manière intéressante de resituer le débat.
Les petites structures
Aucune exception solide pour les petites structures. Un aménagement est prévu pour les structures :
- dont l’activité est accessible au public depuis moins de trois ans ;
- dont le chiffre d’affaires annuel inférieur à dix millions d’euros ;
- avec moins de cinq millions personnes d’utilisatrices uniques par mois.
Ces trois critères sont cumulatifs et n’ont aucune prise dans le réel. Le critère des trois ans est révélateur d’une vision où l’objectif de toutes plates‐formes est de devenir un « géant ». Hors l’est justement la centralisation autour de plates‐formes devenues incontournables, comme YouTube, qui est la source du problème.
À noter que cette question que l’on pourrait résumer à une « exception TPE/PME » est loin d’être anodine. En juillet 2018, le Parlement européen avait rejeté le mandat du rapporteur Axel Voss pour participer aux négociations inter‐institutionnelles en grande partie, car il n’y avait pas une telle exception. Et c’est en grande partie l’introduction d’une exception TPE/PME (réelle pour le coup), qui avait permis au rapporteur en septembre d’obtenir un vote favorable sur l’article 13.
Exception de parodie
Les défenseurs de l’article 13 invoquent régulièrement que le texte ne remet aucunement en cause l’exception de parodie, que nous pourrons toujours librement utiliser des « memes », etc. Et pourtant…
Il n’y a aucune définition harmonisée des exceptions au droit d’auteur au niveau européen, notamment de celle de parodie. C’est‐à‐dire que chaque État membre a sa propre définition, parfois seulement jurisprudentielle. Face au risque d’une responsabilité lourde, il sera logique pour une plate‐forme de s’aligner sur la définition la plus restrictive.
Cela se traduit par une crainte forte que l’on pourrait exprimer par le « principe de moindre résistance » : face à des obligations lourdes, le plus simple pour éviter de se trouver responsable d’un contenu contrevenant est de ne laisser passer que les contenus labellisés conformes, donc issus du catalogue de la SACEM et autre sociétés de gestion collective.
Cela représente une insécurité juridique pour les plates‐formes, mais aussi, voire surtout, pour les personnes qui utilisent les plates‐formes pour user de leur liberté d’expression (par exemple en détournant une image à fin de satire politique…).
Déséquilibre
Le texte est particulièrement déséquilibré : il est très simple de réclamer un retrait, sans avoir à justifier d’une atteinte. Et il y a très peu de protection de droits des utilisateurs et utilisatrices, si ce n’est de vagues rappels aux droits fondamentaux. Aucune sanction, ni prise en compte, des situations de réclamations de retrait abusif. Risque supplémentaire de censure.
Des « copyright trolls », sur le modèle des « patent trolls » commencent déjà à émerger. Des blocages frauduleux d’une œuvre dont une personne tire légitimement son revenu : déblocage contre « rançon ».
Les recours pour retraits illégitimes sont purement cosmétiques : long, complexe, ils reviennent à confier à la plate‐forme un jugement — en droit ! — difficile. Quelle conséquence juridique en cas d’appel devant un juge (un vrai) ? Dans un cas, elle pourra voir sa responsabilité engagée si elle a validé à tort un contenu qui était en violation d’un droit d’auteur. Dans un autre cas, si elle a maintenu le retrait d’un contenu pourtant légitime, la seule conséquence sera la remise en ligne…
Pour une personne bloquée alors qu’elle détournait une œuvre à fin humoristique, de critique politique, etc., donc intrinsèquement liée à l’actualité, un recours n’a pas de sens. Typiquement la situation si un « meme » a été bloqué.
Pour une personne bloquée alors qu’elle tire un revenu de la publication : délai qui peut être lourd de conséquence.
Retour d’expérience très instructif d’un « youtubeur » (9 minutes, en anglais)
How my video with 47 million views was stolen on YouTube.
Risque élevé de faux‐positifs
Impossibilité de traduire en algorithme les usages, les « exceptions » légitimes d’œuvres soumises au droit d’auteur ; parodies, citations, etc. Qui de toute façon ne sont pas harmonisés. Vu le nombre de contenus en cause, des centaines de millions, même une marge d’erreur de 0,1 % reste un chiffre quantitativement difficilement acceptable, surtout dans un « État de droit ».
Les exemples sont légion, du chant d’oiseau pris pour une musique soumise au droit d’auteur, à des sons de la NASA (domaine public) associés à Pink Floyd et donc censurés, des musiques qui jouent en fond d’une vidéo de famille à peine discernable et pourtant entraînant blocage, etc.
On notera que le texte se préoccupe très peu de la répartition des revenus au sein des sociétés de gestion de droit d’auteur type SACEM.
Mépris à l’égard de la mobilisation citoyenne
- tentative d’avancer le vote en plénière au 12 mars ! Avant donc l’appel à mobilisation du 23 mars ; Face aux résistances, la manœuvre politique a été abandonnée ;
- le « #mobgate » : un billet signé « commission européenne » qualifiant les personnes mobilisées de foule en colère (« a mob ») manipulée par Google ; billet retiré suite au tollé provoqué, remplacé par la mention : « nos propos n’ayant pas été correctement compris, nous préférons le retirer » ; malheureusement pour l’institution européenne, Internet n’oublie jamais :) ;
- une vidéo du Parlement européen, publiée sur Twitter avant le vote, encense la directive avec des demi‐vérités (par exemple, le rapporteur n’évoque que deux critères sur trois pour l’allègement de responsabilité de certaines PME, ne mentionne pas l’absence d’harmonisation de la définition de « parodie ») ; vidéo qui, nous l’avons appris grâce à l’action de Julia Reda, aurait été réalisée par… l’AFP !
- argument systématiquement avancé : « lisez le texte » (sous‐entendu évident : si vous êtes contre c’est que vous ne l’avez pas lu) ;
- aucun contre‐argumentaire face à l’avalanche de critiques de très hauts profils très diversifiés : technique, scientifique, juridique, académique, associatif, etc.
Quelques liens qui me semblent intéressants
En français
En anglais