CONCLUSIONS DE L’AVOCAT GÉNÉRAL
M. HENRIK SAUGMANDSGAARD ØE
présentées le 15 juillet 2021 (1)
Affaire C‑401/19
République de Pologne
contre
Parlement européen,
Conseil de l’Union européenne
« Recours en annulation – Directive (UE) 2019/790 – Droit d’auteur et droits voisins – Utilisation de contenus protégés par des fournisseurs de services de partage de contenus en ligne – Communication au public – Responsabilité de ces fournisseurs – Article 17 – Exonération de responsabilité – Paragraphe 4, sous b) et sous c), in fine – Filtrage des contenus mis en ligne par les utilisateurs – Liberté d’expression et d’information – Charte des droits fondamentaux de l’Union européenne – Article 11, paragraphe 1 – Compatibilité – Garanties encadrant ce filtrage »
I. Introduction
1. Par le présent recours, introduit sur le fondement de l’article 263 TFUE, la République de Pologne demande à la Cour, à titre principal, d’annuler l’article 17, paragraphe 4, sous b) et sous c), in fine, de la directive (UE) 2019/790 du Parlement européen et du Conseil, du 17 avril 2019, sur le droit d’auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE (2) et, à titre subsidiaire, d’annuler cet article 17 dans son intégralité.
2. Ce recours invite la Cour à examiner la question de la responsabilité supportée par les prestataires de services de partage en ligne lorsque des contenus protégés par le droit d’auteur ou les droits voisins sont téléversés (3) par les utilisateurs de ces services.
3. Cette problématique a déjà été portée à l’attention de la Cour dans les affaires jointes C‑682/18, YouTube, et C‑683/18, Cyando, sous l’angle du cadre constitué par la directive 2000/31/CE relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur (« directive sur le commerce électronique ») (4) et par la directive 2001/29/CE sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information (5). Il s’agit, cette fois, d’examiner l’article 17 de la directive 2019/790, qui prévoit un nouveau régime de responsabilité applicable aux prestataires de services de partage en ligne.
4. Ainsi qu’il sera expliqué dans les présentes conclusions, cette disposition impose à ces prestataires des obligations de surveillance des contenus que les utilisateurs de leurs services mettent en ligne, afin de prévenir le téléversement des œuvres et objets protégés que les titulaires de droits ne souhaitent pas rendre accessibles sur ces services. Cette surveillance préventive prendra, en règle générale, la forme d’un filtrage de ces contenus, réalisé à l’aide d’outils informatiques.
5. Or, ce filtrage soulève des questions complexes, mises en avant par la requérante, au regard de la liberté d’expression et d’information des utilisateurs des services de partage, garantie à l’article 11 de la Charte des droits fondamentaux de l’Union européenne (ci-après la « Charte »). La Cour devra, dans le prolongement de ses arrêts Scarlet Extended (6), SABAM (7) ainsi que Glawischnig-Piesczek (8), déterminer si, et le cas échéant sous quelles conditions, un tel filtrage est compatible avec cette liberté. Il s’agira, pour elle, de tenir compte des avantages, mais également des risques qu’emporte pareil filtrage et, dans ce cadre, d’assurer qu’un « juste équilibre » soit maintenu entre, d’une part, l’intérêt des titulaires de droits à une protection effective de leur propriété intellectuelle et, d’autre part, l’intérêt de ces utilisateurs, et du public en général, à la libre circulation de l’information en ligne.
6. Dans les présentes conclusions, j’expliquerai que, selon moi, le législateur de l’Union peut, dans le respect de la liberté d’expression, imposer certaines obligations de surveillance et de filtrage à certains intermédiaires en ligne, à condition, toutefois, que ces obligations soient encadrées par des garanties suffisantes pour minimiser l’impact d’un tel filtrage sur cette liberté. Dès lors que l’article 17 de la directive 2019/790 comporte, à mon avis, de telles garanties, je proposerai à la Cour de juger que cette disposition est valide et, en conséquence, de rejeter le recours de la République de Pologne (9).
II. Le cadre juridique
A. La directive 2000/31
7. L’article 14 de la directive 2000/31, intitulé « Hébergement », dispose, à son paragraphe 1 :
« Les États membres veillent à ce que, en cas de fourniture d’un service de la société de l’information consistant à stocker des informations fournies par un destinataire du service, le prestataire ne soit pas responsable des informations stockées à la demande d’un destinataire du service à condition que :
a) le prestataire n’ait pas effectivement connaissance de l’activité ou de l’information illicites et, en ce qui concerne une demande en dommages et intérêts, n’ait pas connaissance de faits ou de circonstances selon lesquels l’activité ou l’information illicite est apparente
ou
b) le prestataire, dès le moment où il a de telles connaissances, agisse promptement pour retirer les informations ou rendre l’accès à celles-ci impossible. »
8. L’article 15 de cette directive, intitulé « Absence d’obligation générale en matière de surveillance », prévoit, à son paragraphe 1 :
« Les États membres ne doivent pas imposer aux prestataires, pour la fourniture des services visée aux articles 12, 13 et 14, une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites. »
B. La directive 2001/29
9. L’article 3 de la directive 2001/29, intitulé « Droit de communication d’œuvres au public et droit de mettre à la disposition du public d’autres objets protégés », dispose, à ses paragraphes 1 et 2 :
« 1. Les États membres prévoient pour les auteurs le droit exclusif d’autoriser ou d’interdire toute communication au public de leurs œuvres, par fil ou sans fil, y compris la mise à la disposition du public de leurs œuvres de manière que chacun puisse y avoir accès de l’endroit et au moment qu’il choisit individuellement.
2. Les États membres prévoient le droit exclusif d’autoriser ou d’interdire la mise à la disposition du public, par fil ou sans fil, de manière que chacun puisse y avoir accès de l’endroit et au moment qu’il choisit individuellement:
a) pour les artistes interprètes ou exécutants, des fixations de leurs exécutions ;
b) pour les producteurs de phonogrammes, de leurs phonogrammes ;
c) pour les producteurs des premières fixations de films, de l’original et de copies de leurs films ;
d) pour les organismes de radiodiffusion, des fixations de leurs émissions, qu’elles soient diffusées par fil ou sans fil, y compris par câble ou par satellite. »
10. L’article 5 de cette directive, intitulé « Exceptions et limitations », prévoit, à son paragraphe 3 :
« Les États membres ont la faculté de prévoir des exceptions ou limitations aux droits prévus aux articles 2 et 3 dans les cas suivants :
[...]
d) lorsqu’il s’agit de citations faites, par exemple, à des fins de critique ou de revue [...] ;
[...]
k) lorsqu’il s’agit d’une utilisation à des fins de caricature, de parodie ou de pastiche ;
[...] »
C. La directive 2019/790
11. L’article 17 de la directive 2019/790, intitulé « Utilisation de contenus protégés par des fournisseurs de services de partage de contenus en ligne », dispose :
« 1. Les États membres prévoient qu’un fournisseur de services de partage de contenus en ligne effectue un acte de communication au public ou un acte de mise à la disposition du public aux fins de la présente directive lorsqu’il donne au public l’accès à des œuvres protégées par le droit d’auteur ou à d’autres objets protégés qui ont été téléversés par ses utilisateurs.
Un fournisseur de services de partage de contenus en ligne doit dès lors obtenir une autorisation des titulaires de droits visés à l’article 3, paragraphes 1 et 2, de la [directive 2001/29], par exemple en concluant un accord de licence, afin de communiquer au public ou de mettre à la disposition du public des œuvres ou autres objets protégés.
2. Les États membres prévoient que, lorsqu’un fournisseur de services de partage de contenus en ligne obtient une autorisation, par exemple en concluant un accord de licence, cette autorisation couvre également les actes accomplis par les utilisateurs des services relevant du champ d’application de l’article 3 de la [directive 2001/29] lorsqu’ils n’agissent pas à titre commercia[l] ou lorsque leur activité ne génère pas de revenus significatifs.
3. Quand un fournisseur de services de partage de contenus en ligne procède à un acte de communication au public ou à un acte de mise à la disposition du public, dans les conditions fixées par la présente directive, la limitation de responsabilité établie à l’article 14, paragraphe 1, de la [directive 2000/31] ne s’applique pas aux situations couvertes par le présent article.
Le premier alinéa du présent paragraphe n’affecte pas l’éventuelle application de l’article 14, paragraphe 1, de la [directive 2000/31] à ces fournisseurs de services pour des finalités ne relevant pas du champ d’application de la présente directive.
4. Si aucune autorisation n’est accordée, les fournisseurs de services de partage de contenus en ligne sont responsables des actes non autorisés de communication au public, y compris la mise à la disposition du public, d’œuvres protégées par le droit d’auteur et d’autres objets protégés, à moins qu’ils ne démontrent que :
a) ils ont fourni leurs meilleurs efforts pour obtenir une autorisation ; et
b) ils ont fourni leurs meilleurs efforts, conformément aux normes élevées du secteur en matière de diligence professionnelle, pour garantir l’indisponibilité d’œuvres et autres objets protégés spécifiques pour lesquels les titulaires de droits ont fourni aux fournisseurs de services les informations pertinentes et nécessaires ; et en tout état de cause
c) ils ont agi promptement, dès réception d’une notification suffisamment motivée de la part des titulaires de droits, pour bloquer l’accès aux œuvres et autres objets protégés faisant l’objet de la notification ou pour les retirer de leurs sites Internet, et ont fourni leurs meilleurs efforts pour empêcher qu’ils soient téléversés dans le futur, conformément au point b).
5. Pour déterminer si le fournisseur de services a respecté les obligations qui lui incombent en vertu du paragraphe 4, et à la lumière du principe de proportionnalité, les éléments suivants sont, entre autres, pris en considération :
a) le type, l’audience et la taille du service, ainsi que le type d’œuvres ou autres objets protégés téléversés par les utilisateurs du service ; et
b) la disponibilité de moyens adaptés et efficaces et leur coût pour les fournisseurs de services.
[...]
7. La coopération entre les fournisseurs de services de partage de contenus en ligne et les titulaires de droits ne conduit pas à empêcher la mise à disposition d’œuvres ou d’autres objets protégés téléversés par des utilisateurs qui ne portent pas atteinte au droit d’auteur et aux droits voisins, y compris lorsque ces œuvres ou autres objets protégés sont couverts par une exception ou une limitation.
Les États membres veillent à ce que les utilisateurs dans chaque État membre puissent se prévaloir de l’une quelconque des exceptions ou limitations existantes suivantes lorsqu’ils téléversent et mettent à disposition des contenus générés par les utilisateurs sur les services de partage de contenus en ligne :
a) citation, critique, revue ;
b) utilisation à des fins de caricature, de parodie ou de pastiche.
8. L’application du présent article ne donne lieu à aucune obligation générale de surveillance.
Les États membres prévoient que les fournisseurs de services de partage de contenus en ligne fournissent aux titulaires de droits, à leur demande, des informations adéquates sur le fonctionnement de leurs pratiques en ce qui concerne la coopération visée au paragraphe 4 et, en cas d’accords de licence conclus entre les fournisseurs de services et les titulaires de droits, des informations sur l’utilisation des contenus couverts par les accords.
9. Les États membres prévoient la mise en place par les fournisseurs de services de partage de contenus en ligne d’un dispositif de traitement des plaintes et de recours rapide et efficace, à la disposition des utilisateurs de leurs services en cas de litige portant sur le blocage de l’accès à des œuvres ou autres objets protégés qu’ils ont téléversés ou sur leur retrait.
Lorsque des titulaires de droits demandent à ce que l’accès à leurs œuvres ou autres objets protégés spécifiques soit bloqué ou à ce que ces œuvres ou autres objets protégés soient retirés, ils justifient dûment leurs demandes. Les plaintes déposées dans le cadre du dispositif prévu au premier alinéa sont traitées sans retard indu et les décisions de blocage d’accès aux contenus téléversés ou de retrait de ces contenus font l’objet d’un contrôle par une personne physique. Les États membres veillent également à ce que des mécanismes de recours extrajudiciaires soient disponibles pour le règlement des litiges. Ces mécanismes permettent un règlement impartial des litiges et ne privent pas l’utilisateur de la protection juridique accordée par le droit national, sans préjudice du droit des utilisateurs de recourir à des voies de recours judiciaires efficaces. En particulier, les États membres veillent à ce que les utilisateurs puissent s’adresser à un tribunal ou à une autre autorité judiciaire compétente pour faire valoir le bénéfice d’une exception ou d’une limitation au droit d’auteur et aux droits voisins.
La présente directive n’affecte en aucune façon les utilisations légitimes, telles que les utilisations relevant des exceptions ou limitations prévues par le droit de l’Union [...].
Les fournisseurs de services de partage de contenus en ligne informent leurs utilisateurs, dans leurs conditions générales d’utilisation, qu’ils peuvent utiliser des œuvres et autres objets protégés dans le cadre des exceptions ou des limitations au droit d’auteur et aux droits voisins prévues par le droit de l’Union.
10. À compter du 6 juin 2019, la Commission organise, en coopération avec les États membres, des dialogues entre parties intéressées afin d’examiner les meilleures pratiques pour la coopération entre les fournisseurs de services de partage de contenus en ligne et les titulaires de droits. Après consultation des fournisseurs de services de partage de contenus en ligne, des titulaires de droits, des organisations d’utilisateurs et des autres parties prenantes concernées, et compte tenu des résultats des dialogues entre parties intéressées, la Commission émet des orientations sur l’application du présent article, en particulier en ce qui concerne la coopération visée au paragraphe 4. Lors de l’examen des meilleures pratiques, une attention particulière doit être accordée, entre autres, à la nécessité de maintenir un équilibre entre les droits fondamentaux et le recours aux exceptions et aux limitations. Aux fins des dialogues avec les parties intéressées, les organisations d’utilisateurs ont accès aux informations adéquates fournies par les fournisseurs de services de partage de contenus en ligne sur le fonctionnement de leurs pratiques en ce qui concerne le paragraphe 4. »
III. Les faits à l’origine du présent recours
A. La proposition de directive sur le droit d’auteur dans le marché unique numérique
12. Le 14 septembre 2016, la Commission européenne a présenté une proposition de directive sur le droit d’auteur dans le marché unique numérique (10). Cette proposition visait à adapter les règles de l’Union dans le domaine de la propriété littéraire et artistique – droit d’auteur et droits voisins du droit d’auteur –, en particulier la directive 2001/29, à l’évolution des technologies numériques (11). Elle visait également à poursuivre l’harmonisation dans ce domaine d’une manière qui, tout en continuant à garantir un niveau élevé de protection de la propriété intellectuelle, assure une large disponibilité des contenus créatifs dans toute l’Union et maintienne, dans l’environnement numérique, un « juste équilibre » avec d’autres intérêts public.
13. Dans ce cadre, l’article 13 de ladite proposition tendait, plus spécifiquement, à remédier au « Value Gap », à savoir l’écart perçu entre la valeur que les prestataires de services de partage en ligne extraient des œuvres et objets protégés et les revenus qu’ils reversent aux titulaires de droits (12).
14. À cet égard, il convient de rappeler que les services en question, caractéristiques du « Web 2.0 » interactif et dont YouTube (13), Soundcloud ou encore Pinterest sont les exemples les plus connus, permettent à tout un chacun de mettre en ligne automatiquement, sans sélection préalable par leurs prestataires, les contenus qu’il souhaite. Les contenus mis en ligne par les utilisateurs de ces services – communément désignés comme « user‑generated content » ou « user‑uploaded content » – peuvent ensuite être consultés en streaming (diffusion en flux continu) depuis les sites Internet ou applications pour appareils intelligents associées auxdits services – cette consultation étant facilitée par les fonctionnalités d’indexation, de recherche et de recommandation que l’on y trouve généralement –, et ce le plus souvent gratuitement – les prestataires de ces mêmes services se rémunérant d’ordinaire par la vente d’espaces publicitaires. Une quantité gigantesque de contenus (14) est ainsi mise à la disposition du public sur Internet, y compris une part conséquente d’œuvres et d’autres objets protégés.
15. Or, à partir de l’année 2015, les titulaires de droits, en particulier ceux de l’industrie musicale, ont fait valoir que, tandis que ces services de partage occupent, dans les faits, une place importante dans la distribution en ligne d’œuvres et d’autres objets protégés et que leurs prestataires en tirent des recettes publicitaires considérables, ces derniers ne rémunèrent pas équitablement lesdits titulaires. Les revenus que ces prestataires reversent à ces mêmes titulaires seraient notamment insignifiants par rapport à ceux que les prestataires de services de streaming musical – tels que Spotify – leur versent, bien que ces deux types de services soient souvent perçus par les consommateurs comme des sources équivalentes d’accès auxdits objets. Il en résulterait également une concurrence déloyale entre lesdits services (15).
16. Pour bien comprendre l’argument du « Value Gap », il faut revenir au cadre juridique applicable avant l’adoption de la directive 2019/790 et aux incertitudes qui l’entouraient.
17. D’une part, l’article 3, paragraphe 1, de la directive 2001/29 reconnaît aux auteurs le droit exclusif d’autoriser ou d’interdire toute « communication au public » de leurs œuvres, y compris la « mise à la disposition du public » de ces œuvres de manière que chacun puisse y avoir accès de l’endroit et au moment qu’il choisit individuellement (16). Des droits similaires sont reconnus aux titulaires de droits voisins sur leurs objets protégés (17) au titre de l’article 3, paragraphe 2, de cette directive (18). En principe (19), un tiers ne peut donc pas « communiquer au public » une œuvre ou un objet protégé sans avoir, au préalable, obtenu une autorisation du ou des titulaires des droits sur celle-ci ou celui-ci, autorisation qui prend généralement la forme d’un accord de licence, octroyée contre rémunération (20). Or, s’il a toujours été clair que la mise en ligne, par un utilisateur, d’une œuvre ou d’un objet protégé sur un service de partage constitue un acte de « communication au public » nécessitant une telle autorisation préalable, la question de savoir si les prestataires de ces services devaient eux-mêmes conclure des accords de licence et rémunérer les titulaires de droits faisait l’objet d’une controverse, opposant ces prestataires auxdits titulaires (21).
18. D’autre part, l’article 14 de la directive 2000/31 contient une « sphère de sécurité » (safe harbour) pour les prestataires de services de la société de l’information consistant à stocker des contenus fournis par les tiers. Cette disposition prévoit, en substance, que le prestataire d’un tel service est exonéré de toute responsabilité susceptible de résulter (22) des contenus illicites qu’il stocke à la demande des utilisateurs de ce service pour autant qu’il n’en ait pas connaissance ou que, le cas échéant, il les supprime promptement. Or, là encore, une controverse entourait le point de savoir si les prestataires des services de partage en ligne pouvaient bénéficier de cette exonération en matière de droit d’auteur (23).
19. Ces controverses étaient d’autant plus vives que la Cour n’avait pas eu, jusqu’à présent, l’occasion de les trancher (24).
20. Dans un tel contexte, certains prestataires de services de partage avaient tout simplement refusé de conclure des accords de licence avec les titulaires de droits pour les œuvres et objets protégés mis en ligne par les utilisateurs de leurs services, estimant qu’ils n’étaient pas tenus de le faire. D’autres prestataires avaient tout de même accepté de conclure de tels accords, mais les conditions de ces accords n’étaient pas, selon les titulaires de droits, équitables, faute pour ces derniers de pouvoir négocier sur une base égale avec lesdits prestataires (25).
21. Cela étant rappelé, la proposition de directive visait donc, d’une part, à ce que les titulaires de droits puissent obtenir une meilleure rémunération pour l’utilisation de leurs œuvres et autres objets protégés sur les services de partage en ligne, en affirmant l’obligation, pour les prestataires de ces services, de conclure des accords de licence avec lesdits titulaires (26).
22. D’autre part, cette proposition visait à permettre aux titulaires de droits de contrôler plus aisément l’utilisation de leurs œuvres et objets protégés sur les services en question. Son article 13 obligeait, à cet égard, les prestataires desdits services, en substance, à recourir aux outils de reconnaissance automatique de contenu déjà mis en place, de manière volontaire, par certains d’entre eux, c’est-à-dire des outils informatiques, dont le fonctionnement sera décrit plus loin (27), pouvant être utilisés notamment au moment de la mise en ligne d’un contenu par un utilisateur – d’où la désignation commune de ces outils par le terme d’« Upload filter » (filtres de mise en ligne) – pour vérifier, par le truchement d’un processus automatisé, si ce contenu inclut une œuvre ou un autre objet protégé et, le cas échéant, en bloquer la diffusion (28).
23. La proposition de directive, en particulier son article 13, a donné lieu à de nombreux débats au sein du Parlement et du Conseil dans le cadre du processus législatif. Ce processus fut, en outre, marqué par d’intenses campagnes de lobbying de la part des opérateurs économiques concernés et par des démonstrations d’opposition d’une partie de la société civile, des milieux académiques et des défenseurs de la liberté d’expression, arguant des effets néfastes que l’obligation, pour les prestataires de services de partage, de mettre en place des « upload filters » serait, selon eux, susceptible d’avoir sur cette liberté (29).
24. La proposition de directive a finalement été approuvée par le Parlement le 26 mars 2019 et par le Conseil le 16 avril 2019 (30). Cette proposition a été officiellement adoptée en tant que directive 2019/790 le 17 avril 2019. Elle devait être transposée par les États membres au plus tard le 7 juin 2021 (31).
B. L’article 17 de la directive 2019/790
25. Au cours de ce processus législatif, l’article 13 de la proposition de directive a subi diverses modifications. Il a été adopté, dans une rédaction sensiblement différente, en tant qu’article 17 de la directive 2019/790. Il me semble opportun d’en présenter dès à présent certains aspects fondamentaux.
26. Premièrement, l’article 17 de la directive 2019/790 s’adresse, comme l’indique son intitulé, aux « fournisseurs de services de partage de contenus en ligne » (32). Cette notion est définie à l’article 2, point 6, premier alinéa, de cette directive comme visant tout « fournisseur d’un service de la société de l’information dont l’objectif principal ou l’un des objectifs principaux est de stocker et de donner au public l’accès à une quantité importante d’œuvres protégées par le droit d’auteur ou d’autres objets protégés qui ont été téléversés par ses utilisateurs, qu’il organise et promeut à des fins lucratives ». Indépendamment du caractère ouvert des termes employés, il en ressort clairement que cet article 17 concerne les « grands » prestataires de services de partage, réputés liés au « Value Gap » (33), et dont cette définition vise, à l’évidence, à refléter le fonctionnement (34).
27. Deuxièmement, l’article 17 de la directive 2019/790, énonce, à son paragraphe 1, premier alinéa, qu’un fournisseur de services de partage « effectue un acte de communication au public ou un acte de mise à la disposition du public aux fins de la présente directive lorsqu’il donne au public l’accès à des œuvres protégées par le droit d’auteur ou à d’autres objets protégés qui ont été téléversés par ses utilisateurs ». Dès lors, comme le précise le second alinéa de ce paragraphe, ces fournisseurs doivent, en principe, obtenir une autorisation des titulaires de droits, par exemple en concluant un accord de licence, concernant l’utilisation, sur leurs services, de contenus protégés mis en ligne par les utilisateurs (35). Le législateur de l’Union a, ainsi, tranché ex lege la controverse évoquée au point 17 des présentes conclusions en faveur de ces titulaires (36).
28. Cette obligation est en relation directe avec l’objectif général poursuivi à l’article 17 de la directive 2019/790, à savoir « réaliser un marché performant et équitable pour le droit d’auteur » (37), en encourageant le développement du « marché de l’octroi de licences entre les titulaires de droits et les fournisseurs de services de partage ». Il s’agit de renforcer la position de ces titulaires lors de la négociation (ou de la renégociation) d’accords de licence avec ces fournisseurs, afin d’assurer que ces accords soient « équitables » et maintiennent un « équilibre raisonnable entre les deux parties » (38) – et, ce faisant, de remédier au « Value Gap ». La position de négociation desdits titulaires est d’autant plus renforcée que, en principe, ils ne sont pas, pour leur part, tenus de conclure de tels accords avec ces mêmes fournisseurs (39).
29. Troisièmement, l’article 17 de la directive 2019/790 précise, à son paragraphe 3, que lorsqu’un fournisseur de services de partage procède à un acte de « communication au public » ou de « mise à la disposition du public », dans les conditions fixées au paragraphe 1 de cet article, l’exonération de responsabilité prévue à l’article 14 de la directive 2000/31 ne s’applique pas (40).
30. Quatrièmement, le paragraphe 4 de cet article 17 précise que, lorsque les fournisseurs de services de partage n’ont pas obtenu d’autorisation des titulaires de droits, ils sont responsables des actes « non autorisés » (41) de communication au public réalisés par le truchement de leur services. Il s’agit là d’une conséquence logique de ce qui précède : puisque ces fournisseurs sont désormais réputés réaliser des actes de « communication au public » lorsqu’ils « donnent accès » aux œuvres et autres objets protégés téléversés par les utilisateurs de leurs services, ils supportent une responsabilité directe (ou « primaire ») en cas de « communication » illicite.
31. En principe, la responsabilité directe pesant sur la personne qui réalise un acte illicite de « communication au public » est une responsabilité objective (42). Les fournisseurs de services de partage devraient donc être automatiquement responsables à chaque fois qu’une œuvre ou un objet protégé est illégalement mis en ligne sur leurs services. À ce titre, ils pourraient être notamment condamnés à verser aux titulaires de droits concernés des dommages-intérêts potentiellement conséquents (43).
32. Néanmoins, puisque, d’une part, ce sont les utilisateurs des services de partage qui mettent en ligne les contenus qui s’y trouvent, sans que leurs fournisseurs opèrent une sélection préalable à cet égard (44), et que, d’autre part, ces fournisseurs ne pourront probablement pas obtenir d’autorisation de l’ensemble des titulaires de droits pour la totalité des œuvres et autres objets protégés, actuels et futurs, qui pourraient ainsi y être téléversés (45), une telle responsabilité objective aurait contraint lesdits fournisseurs à changer complètement de modèle économique – et, en cela, à abandonner le modèle même du « Web 2.0 » interactif.
33. Dès lors, le législateur de l’Union a estimé qu’il convenait de prévoir, pour ces mêmes fournisseurs, un mécanisme de responsabilité spécifique (46). Conformément à l’article 17, paragraphe 4, de la directive 2019/790, ceux-ci peuvent, en cas de « communication au public » illicite réalisée par le truchement de leurs services, s’exonérer de toute responsabilité en démontrant que :
« a) ils ont fourni leurs meilleurs efforts pour obtenir une autorisation ; et
b) ils ont fourni leurs meilleurs efforts, conformément aux normes élevées du secteur en matière de diligence professionnelle, pour garantir l’indisponibilité d’œuvres et autres objets protégés spécifiques pour lesquels les titulaires de droits ont fourni aux fournisseurs de services les informations pertinentes et nécessaires ; et en tout état de cause
c) ils ont agi promptement, dès réception d’une notification suffisamment motivée de la part des titulaires de droits, pour bloquer l’accès aux œuvres et autres objets protégés faisant l’objet de la notification ou pour les retirer de leurs sites Internet, et ont fourni leurs meilleurs efforts pour empêcher qu’ils soient téléversés dans le futur, conformément au point b) ».
34. Deux de ces conditions cumulatives sont au cœur du présent recours. Les autres paragraphes de l’article 17 de la directive 2019/790 seront présentés au fur et à mesure de l’examen de ce recours (47).
IV. La procédure devant la Cour et les conclusions des parties
35. Par requête déposée au greffe de la Cour le 24 mai 2019, la République de Pologne a introduit le présent recours.
36. La République de Pologne conclut à ce qu’il plaise à la Cour :
– d’annuler l’article 17, paragraphe 4, sous b) et sous c), in fine, c’est-à-dire en tant qu’il concerne le libellé « et ont fourni leurs meilleurs efforts pour empêcher qu’ils soient téléversés dans le futur, conformément au point b) », de la directive 2019/790 ;
– à titre subsidiaire, dans l’hypothèse où la Cour considérerait que les dispositions attaquées ne peuvent être séparées du reste de l’article 17 de cette directive sans en modifier la substance, d’annuler cet article dans son intégralité ;
– de condamner le Parlement et le Conseil aux dépens.
37. Le Parlement demande à la Cour :
– de rejeter le recours comme étant non fondé ;
– de condamner la République de Pologne aux dépens.
38. Le Conseil demande qu’il plaise à la Cour :
– de rejeter les conclusions principales comme étant irrecevables ;
– à titre subsidiaire, de rejeter le recours comme étant non fondé dans son intégralité ;
– de condamner la République de Pologne aux dépens.
39. Par décision du président de la Cour, en date du 17 octobre 2019, le Royaume d’Espagne, la République française, la République portugaise et la Commission européenne ont été admis à intervenir au soutien des conclusions du Parlement et du Conseil. Des mémoires en intervention ont été déposés par l’ensemble de ces intervenants, à l’exception de la République portugaise.
40. Les parties et les intervenants, à l’exception du gouvernement portugais, ont été représentés lors de l’audience de plaidoirie qui s’est tenue le 10 novembre 2020.
V. Analyse
41. Au soutien de son recours, la République de Pologne invoque un moyen unique, tiré de la violation du droit à la liberté d’expression et d’information, garanti à l’article 11, paragraphe 1, de la Charte (48). Avant d’examiner ce moyen au fond (section B), je me pencherai brièvement sur la recevabilité de la requête (section A).
A. Sur la recevabilité
42. Le Parlement, le Conseil, le gouvernement français et la Commission font valoir que les conclusions principales de la requête, en ce qu’elles visent à obtenir l’annulation des seuls points b) et c), in fine, du paragraphe 4 de l’article 17 de la directive 2019/790, sont irrecevables. Je suis également de cet avis.
43. En effet, conformément à une jurisprudence constante de la Cour, l’annulation partielle d’un acte de l’Union n’est possible que dans la mesure où les éléments dont l’annulation est demandée sont détachables du reste de cet acte. Il n’est pas satisfait à cette exigence lorsqu’une telle annulation partielle aurait pour effet d’en modifier la substance (49).
44. Or, l’annulation des seuls points b) et c), in fine, de son paragraphe 4 modifierait, à l’évidence, la substance de l’article 17 de la directive 2019/790. Comme le font valoir le Parlement, le Conseil, le gouvernement français et la Commission, les différentes dispositions de cet article 17 constituent, dans leur ensemble, un régime « complexe » de responsabilité, traduisant l’équilibre souhaité par le législateur de l’Union entre les droits et intérêts des fournisseurs de services de partage, des utilisateurs de leurs services et des titulaires de droits. L’annulation des seules dispositions attaquées aurait pour conséquence de substituer, à ce régime de responsabilité, un régime tout à la fois sensiblement différent et nettement plus favorable à ces fournisseurs. En d’autres termes, procéder à une telle annulation partielle reviendrait, pour la Cour, à réviser ce même article 17, ce qu’elle ne peut faire dans le cadre d’une procédure en annulation au titre de l’article 263 TFUE.
45. En revanche, il est constant entre les parties que les conclusions formulées à titre subsidiaire par la requérante, par lesquelles elle demande l’annulation de l’article 17 de la directive 2019/790 dans son intégralité, sont recevables. En effet, aussi important que soit cet article, son annulation ne modifierait pas la substance de cette directive. Les nombreux articles de celle-ci ont des objets divers et sont répartis en différents titres et chapitres. L’article 17 de ladite directive est, en cela, détachable de ses autres articles, qui pourraient tout à fait subsister en cas d’annulation du premier (50).
B. Sur le fond
46. Le moyen unique invoqué par la République de Pologne peut être résumé en quelques mots. En substance, celle-ci fait valoir que, conformément à l’article 17, paragraphe 4, sous b) et sous c), in fine, de la directive 2019/790, les fournisseurs de services de partage sont tenus, afin d’être exonérés de toute responsabilité en cas de « communication au public » illicite d’œuvres ou d’autres objets protégés sur leurs services, procéder à une surveillance préventive des contenus que les utilisateurs souhaitent mettre en ligne. Ils doivent, pour ce faire, utiliser des outils informatiques permettant le filtrage automatique desdits contenus. Or, cette surveillance préventive constituerait une limitation dans l’exercice du droit à la liberté d’expression, garanti à l’article 11 de la Charte. Cette limitation ne serait pas compatible avec cet instrument dès lors qu’elle porterait atteinte au « contenu essentiel » de ce droit fondamental ou, à tout le moins, qu’elle ne respecterait pas le principe de proportionnalité.
47. En défense, le Parlement et le Conseil, soutenus par les gouvernements espagnol et français ainsi que par la Commission, contestent chacun de ces points. Je les examinerai donc tour à tour dans les sections qui suivent. Je me pencherai, d’abord, sur la portée des dispositions attaquées (section 1). Je traiterai, ensuite, la question de la limitation dans l’exercice du droit à la liberté d’expression et d’information (section 2) et, enfin, celle de la compatibilité de cette limitation avec la Charte (section 3).
1. Sur la portée des dispositions attaquées
48. Afin de bien saisir la portée des conditions d’exonération de responsabilité prévues à l’article 17, paragraphe 4, sous b) et sous c), in fine, de la directive 2019/790, il est utile d’avoir à l’esprit, en tant que point de comparaison, celles figurant à l’article 14 de la directive 2000/31. En substance, en vertu de cet article, un prestataire est exonéré de toute responsabilité susceptible de résulter d’une information illicite qu’il stocke à la demande d’un utilisateur de son service pour autant que, premièrement, il n’en ait pas connaissance ou que, secondement, le cas échéant, il ait promptement retiré cette information ou en ait bloqué l’accès. En pratique, il n’est pas attendu d’un tel prestataire qu’il surveille les informations présentes sur ses serveurs et qu’il recherche, de manière active, celles illicites qui s’y trouvent (51). En revanche, lorsque l’existence et la localisation de pareille information illicite est portée à sa connaissance, en règle générale par le truchement d’une notification envoyée par un tiers, ce prestataire doit réagir en retirant l’information en question ou en bloquant l’accès à celle-ci – suivant un système de « notification et retrait » (notice and take down) (52).
49. Par contraste, comme le fait valoir la requérante, pour satisfaire aux conditions prévues par les dispositions attaquées, les fournisseurs de services de partage doivent effectuer une surveillance préventive des informations mises en ligne par les utilisateurs de ces services [section a)]. Or, pour effectuer une telle surveillance, ces fournisseurs devront, dans bon nombre de situations, utiliser des outils informatiques permettant le filtrage automatique desdits contenus [section b)].
a) Une surveillance préventive des contenus mis en ligne par les utilisateurs…
50. En premier lieu, je rappelle que, d’une part, conformément à l’article 17, paragraphe 4, sous b) de la directive 2019/790, les fournisseurs de services de partage doivent fournir leurs « meilleurs efforts, conformément aux normes élevées du secteur en matière de diligence professionnelle » pour « garantir l’indisponibilité » d’œuvres et autres objets protégés spécifiques pour lesquels les titulaires de droits ont fourni aux fournisseurs de services les informations pertinentes et nécessaires.
51. D’autre part, conformément au point c) de ce paragraphe, lorsqu’ils reçoivent une notification suffisamment motivée de la part des titulaires de droits, relative à la présence d’œuvres ou d’autres objets protégés sur leurs services, ces mêmes fournisseurs doivent non seulement agir promptement pour bloquer l’accès à ces objets ou pour les retirer de leurs sites Internet (53), mais également fournir leurs « meilleurs efforts » pour « empêcher qu’ils soient téléversés dans le futur » – suivant, cette fois, une logique de « notification et blocage permanent » (notice and stay down).
52. En somme, les dispositions attaquées font peser sur les fournisseurs de services de partage des obligations de diligence – ou, dit autrement, des obligations de moyens (54) – en matière de surveillance de leurs services. En vue de « garantir l’indisponibilité » des œuvres et des autres objets protégés identifiés par les titulaires de droits et d’« empêcher qu’ils soient téléversés dans le futur », ces fournisseurs doivent prendre « toutes les mesures qu’un opérateur diligent prendrait » (55) pour détecter et bloquer ou retirer, de manière active, au sein de la masse des contenus que les utilisateurs mettent en ligne, ceux reproduisant les objets en question (56).
53. Cette interprétation est confirmée par l’objectif poursuivi à l’article 17 de la directive 2019/790. En effet, sous l’empire de l’article 14 de la directive 2000/31, les titulaires de droits devaient surveiller les services de partage et porter à la connaissance de leurs fournisseurs, par le truchement de notifications, les contenus contrefaisants qui s’y trouvaient afin que ces derniers les retirent. Or, comme l’a rappelé le Conseil, le législateur de l’Union a considéré, lors de l’adoption dudit article 17, qu’un tel système faisait peser une charge trop importante sur les titulaires de droits et ne leur permettait pas de contrôler efficacement l’utilisation de leurs œuvres et autres objets protégés sur ces services (57). En particulier, les contenus retirés étaient souvent remis en ligne peu de temps après, ce qui contraignait ces derniers à multiplier les notifications (58). Afin de remédier au problème, les dispositions attaquées transfèrent à ces mêmes fournisseurs la charge de surveiller leurs services (59).
54. En second lieu, comme le fait valoir la République de Pologne, en vue de remplir les objectifs visés aux dispositions attaquées, les fournisseurs de services de partage doivent tâcher de prévenir – ex ante – la mise en ligne des contenus contrefaisants, et non plus simplement de retirer – ex post – de tels contenus.
55. À cet égard, il ressort du considérant 66 de la directive 2019/790 que, conformément à l’article 17, paragraphe 4, sous b), de cette directive, les fournisseurs de services de partage doivent tâcher d’« éviter » que les œuvres et autres objets protégés identifiés par les titulaires de droits « deviennent disponibles » sur leurs services. Le point c) de ce paragraphe est encore plus explicite quant à la nature des mesures attendues, puisqu’il indique que ces fournisseurs doivent veiller à « empêcher » que les œuvres ou objets protégés ayant donné lieu à une notification des titulaires de droits « soient téléversés » dans le futur. L’incise « conformément au point b) » souligne, en outre, que la même chose est attendue desdits fournisseurs à ces deux points : ils doivent tâcher de prévenir la mise en ligne – ou la remise en ligne, dans le cadre du « stay-down » – de certains contenus illicites sur leurs services.
56. Cette interprétation est, là encore, confirmée par l’objectif, poursuivi à l’article 17 de la directive 2019/790, consistant à permettre aux titulaires de droits de contrôler plus aisément l’utilisation de leurs œuvres sur les services de partage. Comme l’a fait valoir le Conseil, cette disposition vise à réaffirmer, dans l’environnement numérique, le caractère exclusif du droit de « communication au public ». Les obligations de diligence imposées aux fournisseurs de services de partage par les dispositions attaquées tendent à assurer que ces titulaires puissent effectivement « s’interposer entre d’éventuels utilisateurs de leur œuvre et la communication au public que ces utilisateurs pourraient envisager d’effectuer » (60) sur ces services. Ainsi que l’ont souligné le Parlement et le Conseil, les fournisseurs doivent donc tâcher d’intervenir préalablement à la mise en ligne des contenus, c’est-à-dire avant que les œuvres ou objets protégés qu’ils sont susceptibles de reproduire soient effectivement « communiqués au public » en violation de ce droit exclusif.
b) … qui nécessitera, dans bon nombre de situations, l’utilisation d’outils de filtrage
57. À ce stade des présentes conclusions, il me semble utile d’expliquer qu’un certain nombre d’outils informatiques permettent de détecter automatiquement la mise en ligne ou la présence, sur un serveur, d’informations données. En particulier, il existe, à cet effet, des outils de reconnaissance automatique de contenu (Automatic Content Recognition, ou « ACR »), reposant sur différentes techniques, à savoir – en allant de la plus simple à la plus complexe – le « hachage numérique » (hashing), le « marquage numérique » (watermarking) et l’« empreinte numérique » (fingerprinting) (61).
58. Or, depuis la seconde moitié des années 2000, de tels outils, utilisant tout particulièrement cette dernière technique (62), ont été mis en place, de manière volontaire, par certains fournisseurs de services de partage, et ce notamment (63) afin de rechercher activement les contenus contrefaisants sur leurs services (64). Les outils de reconnaissance par « empreinte numérique » peuvent, en effet, filtrer automatiquement les œuvres et autres objets protégés des titulaires de droits parmi les contenus téléversés sur lesdits services, en comparant ces contenus, au moment de leur mise en ligne ou une fois celle-ci effectuée, avec des informations de référence fournies par lesdits titulaires (65). Lorsque cette comparaison établit une correspondance (« match »), lesdits outils donnent en général aux titulaires de droits concernés le choix de décider, manuellement ou automatiquement, de bloquer le contenu en cause, d’autoriser sa mise en ligne et de suivre sa popularité au moyen des statistiques d’audience, ou encore de le « monétiser » en y insérant des publicités (66).
59. La proposition de directive embrassait ces développements technologiques. L’analyse d’impact soulignait l’efficacité des outils de reconnaissance par « empreinte numérique » en matière de contrefaçon et leur disponibilité accrue sur le marché. Ainsi, cette proposition visait, je le rappelle (67), à rendre obligatoire la mise en place de tels outils par les fournisseurs de services de partage, le but étant de contraindre ceux qui ne l’avaient pas encore fait à se « mettre à niveau » et d’obliger les autres à donner aux titulaires de droits un accès transparent à leurs outils de reconnaissance (68).
60. Comme n’ont pas manqué de le souligner le Parlement, le Conseil et le gouvernement espagnol, la version finale de la directive 2019/790 ne contient plus de références expresses aux outils de reconnaissance automatique de contenu. Les points b) et c) du paragraphe 4 de l’article 17 de cette directive sont rédigés en des termes généraux. Ces dispositions n’imposent pas, formellement, aux fournisseurs de services de partage l’adoption de mesures ou de techniques spécifiques en vue d’atteindre les objectifs qu’elles visent (69).
61. À en croire les parties défenderesses et les intervenantes, les dispositions attaquées n’obligeraient donc pas ces fournisseurs à recourir à de tels outils. Ceux-ci disposeraient d’une « marge de manœuvre » quant aux mesures et techniques à mettre en œuvre en vue d’atteindre les objectifs visés à ces dispositions. Dans ce cadre, lesdits fournisseurs pourraient « choisir » d’utiliser pareils outils – ou de continuer à le faire, pour ceux qui le font déjà –, voire développer des « solutions innovantes » (70). En tout état de cause, conformément à l’article 17, paragraphe 5, de la directive 2019/790, les mesures exigées de ces mêmes fournisseurs devraient être examinées au cas par cas, à la lumière du principe de proportionnalité.
62. Cela étant, ainsi que le soutient la République de Pologne, il me semble que les dispositions attaquées obligent bien les fournisseurs de services de partage, dans bon nombre de situations, à utiliser ces outils de reconnaissance de contenu (71). Selon moi, le législateur de l’Union a simplement changé de méthode entre la proposition de directive et son adoption en tant que directive 2019/790. Plutôt que de prévoir directement une obligation de mettre en place de tels outils, il les a imposés indirectement, par le truchement des conditions d’exonération de responsabilité prévues à ces dispositions.
63. En effet, d’une part, comme la requérante l’a souligné à bon droit, il convient de garder à l’esprit le contexte factuel dans lequel s’inscrivent les dispositions attaquées. L’article 17 de la directive 2019/790 concerne les fournisseurs de services qui stockent et donnent au public l’accès à une « quantité importante d’œuvres protégées par le droit d’auteur ou d’autres objets protégés ». Autrement dit, il s’agit d’opérateurs gérant un volume important, voire gigantesque, de contenus. En outre, ces services de partage sont fournis de manière ininterrompue et ouverts à un nombre considérable d’utilisateurs, des quantités conséquentes de nouveaux contenus pouvant ainsi être mises en ligne à tout instant.
64. Dans un tel contexte, il me semble évident que, comme le fait valoir la requérante, les fournisseurs de services de partage ne pourraient pas faire vérifier par leurs préposés la totalité ou même la majeure partie des contenus mis en ligne (72) – ce que le Parlement reconnaît au demeurant. Ainsi, je perçois difficilement par quels moyens, autres que l’utilisation d’un outil de reconnaissance automatique leur permettant de filtrer les contenus téléversés sur leurs services, ces fournisseurs pourraient raisonnablement « garantir l’indisponibilité » des œuvres et objets protégés identifiés par les titulaires de droits et « empêcher qu’ils soient téléversés dans le futur » sur leurs services, conformément aux objectifs visés aux dispositions attaquées (73) – et la référence du Parlement et du Conseil à d’éventuelles « solutions innovantes » n’apporte, à cet égard, qu’une aide très relative (74). Du reste, les parties défenderesses et les intervenants ont admis à demi-mots, lors de l’audience, en réponse aux questions de la Cour, que ces outils seront, bien souvent, de facto, indispensables à cet égard (75).
65. D’autre part, je rappelle que les fournisseurs de services de partage doivent, pour satisfaire aux obligations de diligence qui leur sont imposées, conformément au libellé de l’article 17, paragraphe 4, sous b), de la directive 2019/790, prendre des mesures répondant aux « normes élevées du secteur en matière de diligence professionnelle ». Comme le précise le considérant 66, deuxième alinéa, de cette directive, il faut tenir compte, à cet égard, des « meilleures pratiques du secteur » et de « l’état de l’art ».
66. Or, comme je l’ai expliqué au point 58 des présentes conclusions, les outils de reconnaissance par « empreinte numérique » sont d’ores et déjà utilisés par différents fournisseurs de services de partage, concernant plusieurs types de contenus (76). Les autres fournisseurs acceptant de tels contenus sur leurs services semblent donc tenus, afin de satisfaire aux obligations de diligence résultant des dispositions attaquées, de se conformer aux « meilleures pratiques du secteur » et à « l’état de l’art » en mettant en place de tels outils pour filtrer ces catégories de contenus.
67. Certes, ainsi que l’ont souligné les parties défenderesses et les intervenants, conformément à l’article 17, paragraphe 5, de la directive 2019/790, les mesures attendues des fournisseurs de services de partage doivent, dans chaque cas, être conformes au principe de proportionnalité. Doivent notamment être pris en considération à cet égard, premièrement, « le type, l’audience et la taille du service, ainsi que le type d’œuvres ou autres objets protégés téléversés par les utilisateurs du service » et, secondement, « la disponibilité de moyens adaptés et efficaces et leur coût pour les fournisseurs de services » (77). Dans ce cadre, il ne saurait être exclu que, dans certains cas particuliers, il soit contraire à ce principe d’exiger de certains fournisseurs qu’ils utilisent un outil de reconnaissance de contenu. Il semble également que, en l’état actuel de la technologie, ces outils ne sont ni adaptés ni efficaces s’agissant de certains types particuliers d’œuvres et d’objets protégés (78).
68. Toutefois, ces cas particuliers mis à part, il est clair, à mes yeux, que, dans toutes les situations dans lesquelles différents outils adéquats et efficaces sont disponibles sur le marché et ne sont pas déraisonnablement couteux, les fournisseurs de services de partage sont a priori tenus de les mettre en place afin de démontrer qu’ils ont fourni leurs « meilleurs efforts » pour prévenir la mise en ligne de contenus illicites et, ainsi, satisfaire aux dispositions attaquées (79). Le cas échéant, ils peuvent, conformément au principe de proportionnalité, choisir parmi les outils disponibles ceux étant les mieux adaptés à leurs situations et aux ressources dont ils disposent (80) – voire, pour les plus fortunés d’entre eux, développer un tel outil en interne.
69. En résumé, afin de démontrer, conformément aux dispositions attaquées, qu’ils ont fourni leurs « meilleurs efforts, conformément aux normes élevées du secteur en matière de diligence professionnelle » pour « garantir l’indisponibilité » des œuvres et objets protégés identifiés par les titulaires de droits et « empêcher qu’ils [soient] téléversés dans le futur » sur leurs services, les fournisseurs de services de partage doivent, dans bon nombre de cas, mettre en place des outils de reconnaissance automatique de contenu, afin de filtrer les contenus que les utilisateurs mettent en ligne et, le cas échéant, de bloquer certains d’entre eux avant leur téléversement (81).
2. Sur l’existence d’une limitation dans l’exercice du droit à la liberté d’expression et d’information
70. La portée des dispositions attaquées ayant été clarifiée, il s’agit maintenant d’entamer l’examen de ces dispositions au regard du droit à la liberté d’expression et d’information.
71. Le droit garanti à l’article 11 de la Charte, qui « comprend la liberté d’opinion et la liberté de recevoir ou de communiquer des informations ou des idées sans qu’il puisse y avoir ingérence d’autorités publiques et sans considération de frontières », correspond à celui prévu à l’article 10 de la convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales, signée à Rome le 4 novembre 1950 (ci-après la « CEDH ») (82). En vertu de l’article 52, paragraphe 3, de la Charte, ces deux droits ont donc le même sens ou, à tout le moins, la même portée. Il s’ensuit que l’article 11 de la Charte doit être interprété à la lumière de l’article 10 de la CEDH et de la jurisprudence de la Cour européenne des droits de l’homme (ci-après la « Cour EDH ») y afférente.
72. Ce droit fondamental est indéniablement pertinent en l’occurrence. En effet, comme la République de Pologne et la Commission l’ont évoqué dans leurs observations respectives, les services de partage visés à l’article 17 de la directive 2019/790 sont d’une importance particulière pour la liberté de recevoir ou de communiquer des informations ou des idées.
73. Comme le soutient la requérante, la mise en ligne de contenus sur lesdits services – qu’il s’agisse de vidéos, de photographies, de textes, etc. – relève ainsi de l’exercice du droit à la liberté d’expression et d’information (83). Une telle mise en ligne est également susceptible de concerner d’autres libertés voisines. En particulier, lorsque les contenus en question constituent l’expression artistique des utilisateurs qui les téléversent, leur mise en ligne relève de l’exercice de la liberté des arts, garantie à l’article 13 de la Charte ainsi qu’à l’article 10 de la CEDH (84).
74. Je précise qu’il en va ainsi indépendamment du point de savoir si ces contenus violent ou non des droits d’auteurs. L’argument contraire avancé par le Parlement procède, selon moi, d’une approximation juridique. En effet, le fait qu’une information soit protégée par les droits d’auteur n’a pas pour effet de l’exclure d’emblée du champ de la liberté d’expression (85). S’il est, en règle générale, justifié de restreindre la diffusion d’une telle information, cela n’est pertinent qu’au stade de l’examen des conditions d’admissibilité de pareille restriction à cette liberté (86).
75. Or, selon la requérante, les mesures de filtrage que les fournisseurs de services de partage sont contraints de mettre en place pour satisfaire à l’article 17, paragraphe 4, sous b) et sous c), in fine, de la directive 2019/790 constitueraient, par nature, des « mesures préventives » de contrôle des informations des utilisateurs. Ces mesures entraîneraient des « restrictions préalables », au sens de la jurisprudence de la Cour EDH relative à l’article 10 de la CEDH. Les dispositions attaquées emporteraient donc la mise en place, sur les services de partage, d’une « censure générale automatisée de nature préventive » opérée par leurs fournisseurs. Lesdites dispositions caractériseraient en cela une « ingérence », particulièrement grave, du législateur de l’Union dans la liberté d’expression et d’information desdits utilisateurs.
76. En revanche, les parties défenderesses et les intervenants contestent que les dispositions attaquées emportent une telle « censure » ou une quelconque « ingérence » dans cette liberté. En particulier, selon le Conseil, ces dispositions – ou l’article 17 de la directive 2019/790 de manière générale – n’auraient pas pour objet de restreindre ex ante les informations qui peuvent être diffusées sur ces services. Les utilisateurs demeureraient libres d’y téléverser les contenus qu’ils souhaitent. Simplement, dans toutes les situations où les contenus mis en ligne sont protégés par les droits d’auteur, ces mêmes fournisseurs devraient obtenir une autorisation des titulaires de droits concernés et, à défaut, seraient responsables ex post.
77. À l’instar de la requérante, j’estime que les dispositions attaquées emportent effectivement une « ingérence » dans la liberté d’expression des utilisateurs des services de partage. Je tiens néanmoins à apporter d’emblée une précision d’ordre terminologique. Le terme « censure » est, certes, polysémique. Cela étant, il ressort clairement des observations de la requérante que celle-ci vise par là l’idée d’un contrôle préalable des informations avant leur diffusion. Dans ce contexte, les développements du Parlement, du Conseil et du gouvernement espagnol selon lesquels le terme « censure » ne serait pas pertinent en l’occurrence, au motif que l’article 17 de la directive 2019/790 n’implique aucun contrôle « politique ou moral » des informations mises en ligne sur les services de partage sont, à mes yeux, hors-sujet. Afin d’éviter toute confusion supplémentaire, je me bornerai à utiliser, dans la présente section, les termes « mesures préventives » et « restrictions préalables ».
78. Cela étant précisé, l’article 17 de la directive 2019/790 ne prévoit pas simplement, comme le soutient le Conseil, que les fournisseurs de services de partage doivent obtenir une autorisation pour les contenus protégés mis en ligne par les utilisateurs de leurs services et, à défaut, en sont directement responsables. Comme je l’ai expliqué dans la section précédente, les dispositions attaquées prévoient également que lesdits fournisseurs sont exonérés de cette responsabilité lorsqu’ils fournissent leurs « meilleurs efforts » pour prévenir la mise en ligne, par ces utilisateurs, de contenus reproduisant les œuvres et les autres objets protégés identifiés par les titulaires de droits. Ces mêmes fournisseurs sont ainsi amenés à procéder au filtrage et au blocage préventifs des contenus en question.
79. Or, comme le fait valoir la requérante, le filtrage est, par nature, une « mesure préventive » de contrôle des informations diffusées sur ces services, et les mesures de blocage pouvant en résulter constituent des « restrictions préalables », au sens de la jurisprudence de la Cour EDH afférente à l’article 10 de la CEDH (87) : afin non pas de réprimer, mais de prévenir d’éventuelles atteintes au droit d’auteur, les informations que les utilisateurs entendent mettre en ligne sont contrôlées, et celles considérées comme susceptibles d’emporter une telle atteinte sont restreintes préalablement à leur diffusion (88).
80. Dans ces situations, contrairement à ce que fait valoir le Conseil, les utilisateurs ne sont donc pas « libres » de mettre en ligne les contenus qu’ils souhaitent sur les services de partage. Les mesures de filtrage et de blocage mises en œuvre par leurs fournisseurs vont restreindre les contenus qu’ils peuvent téléverser. Il en résulte une « ingérence » dans l’exercice de la liberté de communication desdits utilisateurs. Le filtrage et le blocage de contenus avant leur diffusion entraînent, en outre, une « ingérence » dans la liberté du public de recevoir des informations (89).
81. Le Parlement et le Conseil rétorquent que les fournisseurs de services de partage peuvent, en tant qu’opérateurs privés, librement choisir les informations qu’ils souhaitent voir diffusées sur leurs services et, ainsi, décider de filtrer et de bloquer des contenus. Même à supposer que cela constitue une « ingérence » dans la liberté d’expression des utilisateurs, celle-ci ne serait, en toute hypothèse, pas imputable au législateur de l’Union.
82. Cet argument amalgame, selon moi, deux situations. Il est vrai que les fournisseurs de services de partage peuvent, dans le cadre de la liberté d’entreprise et de la liberté contractuelle qui leur sont garanties à l’article 16 de la Charte, définir, dans les conditions d’utilisation de leurs services ou encore de « normes de la communauté », une politique en matière de contenus et exercer, de leur propre initiative, une forme d’« autorégulation » en procédant au filtrage et au blocage de contenus qui contreviendraient, selon eux, à ces règles. Dans cette situation, il n’y a pas « ingérence d’autorités publiques », au sens de l’article 10 de la CEDH et de l’article 11 de la Charte dans la liberté d’expression des utilisateurs (90).
83. Toutefois, en l’occurrence, il n’est pas question, selon moi, de l’« autorégulation » des fournisseurs de services de partage. Indépendamment du point de savoir si l’interdiction de mettre en ligne des contenus contrefaisants figure dans leurs conditions générales d’utilisation ou dans leurs « normes communautaires », le filtrage et le blocage de contenus est réalisé pour satisfaire aux dispositions attaquées (91).
84. Dès lors, selon moi, l’« ingérence » dans la liberté d’expression des utilisateurs est bien imputable au législateur de l’Union. Il en est, en effet, l’instigateur. Du reste, le Parlement et le Conseil reconnaissent eux-mêmes que les dispositions attaquées visent, en substance, à attribuer aux fournisseurs de services de partage la charge de contrôler les violations du droit d’auteur commises sur ces services. En quelque sorte, le législateur a délégué à ces fournisseurs la tâche de contrôler la bonne application du droit d’auteur dans l’environnement numérique. Or, le législateur ne peut pas tout à la fois opérer une telle délégation et rejeter toute responsabilité sur lesdits fournisseurs pour les ingérences dans les droits fondamentaux des utilisateurs qui en résulte (92).
85. Ma conviction à cet égard n’est pas ébranlée par l’argument du Conseil selon lequel les dispositions attaquées n’« obligeraient » pas les fournisseurs de services de partage à procéder au filtrage et au blocage des contenus mis en ligne par les utilisateurs de leurs services, au motif que l’article 17, paragraphe 4, de la directive 2019/790 n’imposerait, stricto sensu, aucune « obligation » à ces fournisseurs, mais se bornerait à prévoir un mécanisme d’exonération de responsabilité qu’ils auraient la « possibilité » d’utiliser lorsqu’ils n’ont pas obtenu d’autorisation des titulaires de droits.
86. En effet, selon moi, pour apprécier la compatibilité de l’article 17 de la directive 2019/790 avec l’article 11 de la Charte, il convient de tenir compte non pas uniquement de ses termes, mais également de ses effets concrets. Or, compte tenu du fait que, d’une part, les fournisseurs de services de partage ne pourront pas obtenir d’autorisation des titulaires de droits pour un certain nombre d’œuvres et d’autres objets protégés (93) tandis que, d’autre part, les utilisateurs pourraient, potentiellement, tout de même mettre en ligne quantité de contenus reproduisant les objets en question, le recours au mécanisme d’exonération prévu à l’article 17, paragraphe 4, de la directive 2019/790 sera, pour ces fournisseurs, non pas une « possibilité », mais une nécessité, sauf à supporter un risque démesuré de responsabilité. Ainsi, dans bon nombre de cas, les conditions d’exonération prévues aux dispositions attaquées constitueront, en pratique, de véritables obligations pour lesdits fournisseurs. Du reste, j’observe que le paragraphe 5 dudit article 17 se réfère lui-même aux « obligations qui [...] incombent [aux fournisseurs de services de partage] en vertu du paragraphe 4 » (souligné par mes soins).
87. Selon moi, un tel mécanisme de responsabilité/exonération est une technique tout aussi efficace qu’une obligation directe pour contraindre les opérateurs économiques concernés à procéder au filtrage préventif des contenus de leurs utilisateurs. Comme je l’ai indiqué au point 62 des présentes conclusions, le législateur de l’Union a simplement changé de méthode à cet égard. Toutefois, ces différentes méthodes emportent les mêmes effets et doivent, pour cette raison, être considérées de la même manière au regard des droits fondamentaux (94).
3. Sur la compatibilité de cette limitation avec la Charte
88. Il ressort de la section qui précède que, comme le fait valoir la République de Pologne, les dispositions attaquées emportent une limitation dans l’exercice du droit à la liberté d’expression, tel que garanti à l’article 11 de la Charte.
89. Cela étant, la liberté d’expression n’est pas une prérogative absolue. Conformément à l’article 52, paragraphe 1, de la Charte, des limitations à l’exercice de cette liberté sont admissibles à condition que celles-ci, premièrement, soient « prévues par la loi », deuxièmement, respectent le « contenu essentiel » de cette liberté, et, troisièmement, respectent le principe de proportionnalité.
90. De manière similaire, conformément à l’article 10, paragraphe 2, de la CEDH et de la jurisprudence de la Cour EDH s’y rapportant, une ingérence dans la liberté d’expression est admissible pour autant qu’elle, premièrement, soit « prévue par la loi », deuxièmement, poursuive un ou plusieurs buts légitimes définis audit paragraphe 2 et, troisièmement, soit « nécessaire dans une société démocratique » (95). Si ces conditions diffèrent partiellement, dans leurs formulations, de celles prévues à l’article 52, paragraphe 1, de la Charte, elles doivent, à nouveau, être considérées comme ayant le même sens ou, à tout le moins, la même portée (96).
91. Dès lors, j’examinerai, dans les sections qui suivent, le respect des trois conditions prévues à l’article 52, paragraphe 1, de la Charte, tout en interprétant celles-ci à la lumière de la jurisprudence pertinente de la Cour EDH. Dans ce cadre, j’exposerai les raisons pour lesquelles la limitation en cause est « prévue par la loi » [section a)], pourquoi elle respecte le « contenu essentiel » du droit à la liberté d’expression [section b)] et pourquoi, pour autant que l’article 17 de la directive 2019/790 soit interprété d’une juste manière, elle respecte le principe de proportionnalité [section c)].
a) La limitation en cause est « prévue par la loi »
92. Conformément à une jurisprudence constante de la Cour, la condition selon laquelle toute limitation dans l’exercice des droits fondamentaux doit être « prévue par la loi », au sens de l’article 52, paragraphe 1, de la Charte, lue à la lumière de la jurisprudence de la Cour EDH afférente à la condition équivalente prévue à l’article 10, paragraphe 2, de la CEDH, implique non seulement que cette limitation doit avoir une base légale (« existence de la loi »), mais également que cette base légale doit revêtir certaines qualités d’accessibilité et de prévisibilité (« qualité de la loi ») (97).
93. En l’occurrence, d’une part, la limitation en cause a manifestement une base légale, puisqu’elle résulte de dispositions adoptées par le législateur de l’Union.
94. S’agissant, d’autre part, de la « qualité » de cette base légale, je rappelle que, conformément à la jurisprudence de la Cour (98) et à celle de la Cour EDH (99), la base légale emportant une limitation à l’exercice d’un droit fondamental doit être suffisamment accessible et prévisible dans ses effets, c’est-à-dire être énoncée avec assez de clarté et de précision pour permettre aux intéressés, en s’entourant au besoin de conseils éclairés, de régler leur conduite.
95. Or, j’estime que les dispositions attaquées présentent un degré de clarté et de précision suffisant pour satisfaire à ce standard. Certes, la définition du « fournisseur de services de partage de contenus en ligne » prévue à l’article 2, point 6, de la directive 2019/790 et les dispositions attaquées contiennent plusieurs notions ouvertes – « quantité importante d’œuvres protégées par le droit d’auteur ou d’autres objets protégés » ; « meilleurs efforts » ; « normes élevées du secteur en matière de diligence professionnelle », etc. – générant un degré d’incertitude quant aux opérateurs économiques visés et aux obligations qui leur sont imposées dans chaque situation. Toutefois, selon les explications fournies par le Parlement et le Conseil, le recours à ces notions vise à garantir que ces dispositions puissent s’adapter à différents types d’opérateurs et de situations, ainsi qu’à l’évolution de la pratique et des technologies, et ce afin de résister à l’épreuve du temps. Or, conformément à la jurisprudence de la Cour EDH, le législateur de l’Union peut, sans porter atteinte à l’exigence de « prévisibilité », faire le choix de doter les textes qu’il adopte d’une certaine souplesse plutôt que d’une sécurité juridique absolue (100). En outre, les clarifications apportées dans les présentes conclusions, ainsi que celles que la Cour apportera dans son arrêt à venir et dans de futures décisions, contribueront à préciser ces notions et à éliminer les doutes qui les entourent – ce qui, là encore, satisfait à l’exigence de « prévisibilité » (101).
96. Cela étant précisé, j’observe que la Cour (102) et la Cour EDH (103) rattachent également à l’exigence de « prévisibilité » le point de savoir si la base légale emportant l’ingérence présente des garanties suffisantes contre le risque d’atteintes arbitraires ou abusives aux droits fondamentaux (conformément au principe de la « prééminence du droit »). Cet aspect est contesté par la requérante en l’occurrence.
97. Néanmoins, la question de savoir si les dispositions attaquées présentent des garanties suffisantes pour protéger la liberté d’expression des utilisateurs des services de partage contre les mesures de filtrage et de blocage excessives ou arbitraires a également trait au caractère proportionné de la limitation résultant de ces dispositions (104). Dès lors, afin d’éviter les répétitions, je réserve cette question pour l’examen de la condition tenant au respect du principe de proportionnalité (105).
b) La limitation en cause respecte le « contenu essentiel » du droit à la liberté d’expression
98. Il convient de rappeler que la condition, énoncée à l’article 52, paragraphe 1, de la Charte, selon laquelle toute limitation de l’exercice des droits et libertés reconnus par cet instrument doit « respecter le contenu essentiel desdits droits et libertés » implique que, lorsqu’une mesure porte atteinte à ce « contenu essentiel », elle ne peut être justifiée. Cette mesure est alors jugée contraire à la Charte et, s’agissant d’un acte de l’Union, doit être annulée ou déclarée invalide, sans qu’il faille examiner la condition tenant au respect du principe de proportionnalité (106).
99. En effet, le législateur de l’Union peut limiter l’exercice de certains droits fondamentaux dans l’intérêt commun, afin de protéger d’autres droits et intérêts. Il peut le faire, en particulier, afin de protéger un autre droit fondamental. Dans ce cadre, il dispose d’une certaine marge d’appréciation pour mettre en balance et trouver un « juste équilibre » entre les différents droits et intérêts en présence (107). Néanmoins, cette marge d’appréciation connaît une limite absolue. Le « contenu essentiel » d’un droit fondamental constitue un « noyau intouchable », devant rester libre de toute interférence. Partant, aucun objectif, aussi légitime soit-il, ne justifie de porter certaines atteintes – exceptionnellement graves – aux droits fondamentaux. En d’autres termes, la fin ne justifie pas tout moyen.
100. En l’occurrence, selon la République de Pologne, les dispositions attaquées portent atteinte au « contenu essentiel » du droit à la liberté d’expression. En effet, la surveillance préventive devant, en application de ces dispositions, être effectuée par les fournisseurs de services de partage sur les contenus mis en ligne par leurs utilisateurs remettrait en cause ce droit en tant que tel, au motif qu’elle implique l’ingérence dans ces contenus, et leur éventuel blocage, avant même leur diffusion.
101. À l’instar des parties défenderesses et des intervenants, je ne suis pas de cet avis.
102. Certes, les mesures préventives de contrôle de l’information sont généralement considérées comme des ingérences particulièrement sérieuses dans la liberté d’expression (108), en raison des excès qu’elles peuvent entraîner. Ces mesures préventives sont, en principe, réprouvées dans une société démocratique, au motif que, en restreignant certaines informations avant même leur diffusion, elles empêchent tout débat public sur le contenu, privant ainsi la liberté d’expression de sa fonction même de vecteur du pluralisme (109). Pour ces raisons, comme le souligne la requérante, de nombreux États membres interdisent le contrôle préalable généralisé de l’information dans leurs constitutions respectives.
103. Ces considérations sont pleinement pertinentes en ce qui concerne Internet. Comme la requérante le fait valoir, ce réseau revêt une importance particulière pour la liberté de recevoir ou de communiquer des informations ou des idées (110). Il en va ainsi, plus spécifiquement, des grandes plateformes et réseaux sociaux qui, en permettant à tout un chacun de publier en ligne les contenus qu’il souhaite et au public d’y accéder, constituent des outils « sans précédent » pour l’exercice de cette liberté (111). Ces plateformes participent, en cela, à une forme de « démocratisation » de la production d’information et, bien que gérées par des exploitants privés, sont, de fait, devenues des infrastructures essentielles pour l’expression en ligne (112). En l’état actuel des moyens de communication, le droit à la liberté d’expression implique donc, tout particulièrement, la liberté d’accéder à ces plateformes et de s’y exprimer, en principe, sans ingérence d’autorités publiques (113).
104. Or, si lesdites autorités imposaient, directement ou indirectement (114), aux prestataires intermédiaires qui contrôlent ces infrastructures d’expression l’obligation de surveiller préventivement, de manière générale, les contenus des utilisateurs de leurs services à la recherche de tout type d’informations illicites, voire simplement indésirables, cette liberté de communication serait remise en cause en tant que telle. Le « contenu essentiel » du droit à la liberté d’expression, tel que prévu à l’article 11 de la Charte, serait alors, selon moi, touché.
105. Dans ce contexte, l’article 15 de la directive 2000/31 est, à mes yeux, d’une importance fondamentale. En prévoyant que les prestataires intermédiaires ne sauraient se voir imposer une « obligation générale de surveiller les informations qu’ils transmettent ou stockent », cette disposition empêche que l’information en ligne soit soumise à une surveillance préventive généralisée, déléguée à ces intermédiaires. Elle garantit, en cela, qu’Internet reste un espace libre et ouvert (115).
106. Pour cette raison, j’ai tendance à considérer l’interdiction prévue à cet article 15 comme un principe général du droit régissant l’internet, en ce qu’il concrétise, dans l’environnement numérique, la liberté fondamentale de communication (116). J’observe d’ailleurs que la Cour a d’ores et déjà rapproché, dans sa jurisprudence, le respect de cette liberté et cette interdiction (117). L’une ne va, en effet, pas sans l’autre. Il s’ensuit, à mon avis, que ladite interdiction dépasse le cadre dudit article 15 et s’impose non seulement aux États membres, mais également au législateur de l’Union.
107. Pour autant, contrairement à ce que fait valoir la requérante, le droit fondamental à la liberté d’expression, tel que concrétisé par l’interdiction des « obligations générales de surveillance », ne s’oppose pas à tous les types d’obligation de surveillance.
108. En effet, comme le rappelle la Commission, la Cour a, dans sa jurisprudence relative aux injonctions pouvant être prononcées à l’encontre des intermédiaires en ligne (118), admis qu’il soit possible d’enjoindre un tel intermédiaire de « prévenir » certaines infractions, en exerçant une forme de surveillance ciblée de son service (119). Elle a, ainsi, distingué les obligations de surveillance « générales » de celles applicables dans des cas « spécifiques » (120). De manière similaire, la Cour EDH ne considère pas les mesures préventives de contrôle de l’information, y compris les obligations de blocage, comme incompatibles en soi avec l’article 10 de la CEDH, pour autant qu’elles s’inscrivent dans un cadre spécifique (121). Cette juridiction a même admis, dans son arrêt Delfi AS. c. Estonie, qu’il puisse être attendu de certains intermédiaires qu’ils surveillent activement leurs services à la recherche de certains types d’informations illicites (122).
109. La requérante rétorque que, précisément, l’obligation de surveillance imposée aux fournisseurs de services de partage en application des dispositions attaquées est « générale ». En effet, afin de « garantir l’indisponibilité » des œuvres et autres objets protégés identifiés par les titulaires de droits et « d’empêcher qu’ils soient téléversés dans le futur » sur leurs services, ces fournisseurs doivent, en pratique, filtrer l’intégralité des contenus téléversés par l’ensemble des utilisateurs.
110. Cependant, à l’instar des parties défenderesses et des intervenants, j’estime que ces dispositions imposent, en réalité, une obligation « spécifique » de surveillance (123). Je dois néanmoins reconnaître que la jurisprudence de la Cour (124) a connu une évolution récente quant au critère distinguant le « général » du « spécifique ».
111. Initialement, la Cour semblait s’attacher à la quantité d’informations à inspecter. Dans l’arrêt L’Oréal e.a. (125), la Cour a jugé que l’exploitant d’une place de marché en ligne ne pouvait être obligé de procéder à « une surveillance active de l’ensemble des données de chacun de ses clients afin de prévenir toute atteinte future à des droits de propriété intellectuelle ». Dans l’arrêt Scarlet Extended, elle a estimé qu’un fournisseur d’accès Internet ne pouvait être contraint, par le truchement d’une injonction, de mettre en place un système de filtrage s’appliquant à « toutes les communications électroniques transitant par ses services » et donc « indistinctement à l’égard de toute sa clientèle », et ce afin « d’identifier sur le réseau de ce fournisseur la circulation de fichiers électroniques contenant une œuvre musicale, cinématographique ou audiovisuelle sur laquelle le demandeur prétend détenir des droits de propriété intellectuelle, en vue de bloquer le transfert de fichiers dont l’échange porte atteinte au droit d’auteur » (126). Dans l’arrêt SABAM (127), la Cour a retenu le même raisonnement s’agissant de l’obligation, pour l’exploitant d’une plateforme de réseau social, de mettre en place un système de filtrage similaire. Enfin, dans l’arrêt Mc Fadden (128), elle a considéré que l’exploitant d’un réseau local sans fil ne saurait se voir imposer l’obligation de surveiller « l’ensemble des informations transmises » au moyen de ce réseau, même s’il s’agissait de bloquer les copies d’une unique œuvre musicale identifiée par le titulaire des droits (129).
112. Désormais, la Cour semble s’attacher à la précision de ce qui est recherché. À cet égard, dans l’arrêt Glawischnig-Piesczek (130), qui concernait cette fois le domaine de la diffamation, la Cour a considéré que l’obligation, pour l’exploitant d’un réseau social, de surveiller l’ensemble des informations mises en ligne sur ce réseau (131) devait être considérée comme « spécifique » au motif qu’il s’agissait de rechercher et de bloquer une information diffamante « précise » (132), que le prestataire n’était pas obligé de procéder à une « appréciation autonome » de la licéité des informations filtrées et que, au contraire, il pouvait « recourir à des techniques et à des moyens de recherche automatisés » (133).
113. Cette évolution de la jurisprudence de la Cour (134) est, à mes yeux, justifiée. Si j’en préciserai les limites par la suite (135), j’indique ici que, considérer qu’une obligation de surveillance est « générale » dès lors qu’elle contraint, de facto, un prestataire intermédiaire à effectuer un filtrage, à l’aide d’outils informatiques, de l’ensemble des informations mises en ligne par les utilisateurs de son service, quand bien même il s’agirait de rechercher des infractions spécifiques, reviendrait, de manière regrettable, à ignorer les développements technologiques rendant possible un tel filtrage et à priver le législateur de l’Union d’un moyen utile pour lutter contre certains types de contenus illicites.
114. En l’occurrence, pour atteindre les objectifs visés aux dispositions attaquées, les fournisseurs de services de partage doivent, certes, surveiller l’ensemble des contenus que leurs utilisateurs mettent en ligne. Toutefois, il s’agit de rechercher, parmi ces contenus, les « œuvres ou autres objets protégés spécifiques » pour lesquels les titulaires de droits leurs auront préalablement communiqué les « informations pertinentes et nécessaires » [article 17, paragraphe 4, sous b), de la directive 2019/790] ou une « notification suffisamment motivée » [point c) dudit paragraphe 4]. J’expliquerai plus précisément quels contenus devront être bloqués dans la suite des présentes conclusions (136). Néanmoins, à ce stade de l’analyse, ces éléments suffisent, selon moi, pour démontrer que ces dispositions prévoient bien, indirectement, une obligation de surveillance « spécifique » et pour exclure une atteinte au « contenu essentiel » du droit à la liberté d’expression (137).
115. Pour finir, je précise que, si le législateur de l’Union ne peut pas déléguer aux intermédiaires en ligne la charge de faire une surveillance préventive généralisée des informations partagées ou transmises grâce à leurs services, il peut, à mon sens, sans porter atteinte au « contenu essentiel » de la liberté d’expression, faire le choix d’imposer certaines mesures de surveillance active, concernant certaines informations illicites spécifiques, à certains intermédiaires en ligne. J’observe d’ailleurs que l’article 17 de la directive 2019/790 s’inscrit, à cet égard, dans la lignée d’une série de communications et recommandations de la Commission (138) ainsi que de nouvelles réglementations (139) qui tendent, en ce sens, à faire contribuer certains intermédiaires – en particulier les grandes « plateformes » – à la lutte contre certains types de contenus illicites. Néanmoins, dans chaque cas, le respect du principe de proportionnalité devra être assuré. Une telle forme de délégation du contrôle de la légalité en ligne (140) à certains intermédiaires s’accompagne, notamment, de risques pour la liberté d’expression des utilisateurs de leurs services et ne saurait donc se faire sans des garanties suffisantes pour ces derniers (141).
c) La limitation en cause respecte le principe de proportionnalité
116. Il reste maintenant à examiner la condition tenant au respect du principe de proportionnalité, qui se subdivise, selon les termes de l’article 52, paragraphe 1, de la Charte, en deux sous‑conditions : la limitation en cause doit être, premièrement, « nécessaire » et, deuxièmement, « répondre effectivement à un objectif d’intérêt général reconnu par l’Union ou au besoin de protection des droits et libertés d’autrui ».
117. Le respect de la seconde sous-condition ne fait pas débat entre les parties. Eu égard à l’objectif général poursuivi à l’article 17 de la directive 2019/790 (142), la limitation en cause répond au « besoin de protection des droits et libertés d’autrui », à savoir des droits d’auteur et des droits voisins des titulaires. Je rappelle que la propriété intellectuelle est protégée en tant que droit fondamental, notamment (143), à l’article 17, paragraphe 2, de la Charte et à l’article 1er du protocole nº 1 à la CEDH (144). Les dispositions attaquées constituent, ainsi, des « mesures positives de protection » adoptées par le législateur de l’Union afin d’assurer auxdits titulaires l’exercice réel et efficace de leurs droits de propriété intellectuelle dans leurs relations avec les fournisseurs de services de partage (145).
118. Les parties sont, en revanche, en désaccord sur le point de savoir si la limitation en cause respecte la première sous-condition. À cet égard, je précise que l’examen du caractère « nécessaire », au sens de l’article 52, paragraphe 1, de la Charte, d’une limitation à l’exercice d’un droit fondamental garanti par celle-ci englobe, en réalité, le contrôle de trois exigences cumulatives : il y a lieu, en effet, de vérifier si cette limitation est (1) « appropriée », (2) « nécessaire » ainsi que (3) « proportionnée » stricto sensu (146). J’examinerai tour à tour ces trois exigences dans les sections qui suivent.
1) La limitation en cause est « appropriée »
119. L’exigence tenant au caractère « approprié » de la limitation en cause ne semble pas être contestée par la République de Pologne. En toute hypothèse, à l’instar du Parlement et du Conseil, je l’estime remplie.
120. En effet, dans le cadre de l’analyse du caractère approprié d’une mesure donnée, la Cour doit vérifier non pas si cette mesure constitue le meilleur moyen d’atteindre l’objectif poursuivi, mais si elle est apte à contribuer à la réalisation de cet objectif (147).
121. Or, en l’occurrence, les obligations de surveillance pesant sur les fournisseurs de services de partage en application des dispositions attaquées sont aptes à contribuer à l’objectif poursuivi par le législateur de l’Union. En transférant à ces fournisseurs la charge de surveiller leurs services et de lutter activement contre les contenus contrefaisants susceptibles de s’y trouver, ces dispositions, d’une part, incitent fortement lesdits fournisseurs à conclure des accords de licence avec les titulaires de droits (148) et, d’autre part, permettent auxdits titulaires de contrôler plus aisément l’utilisation de leurs œuvres et objets protégés sur ces services (149).
2) La limitation en cause est « nécessaire »
122. La République de Pologne fait, en revanche, valoir que la limitation à l’exercice du droit à la liberté d’expression résultant des point b) et point c), in fine, du paragraphe 4 de l’article 17 de la directive 2019/790 irait au-delà de ce qui est « nécessaire » à la réalisation de l’objectif poursuivi par le législateur de l’Union. Selon elle, les obligations prévues au point a) et au point c), in principio, de ce paragraphe seraient suffisantes à cet égard. D’une part, l’obligation incombant aux fournisseurs de services de partage, conformément audit point a), de faire leurs « meilleurs efforts » pour obtenir une autorisation des titulaires de droits renforcerait la position de négociation de ces derniers. D’autre part, l’obligation pesant sur ces mêmes fournisseurs, en vertu dudit point c), in principio, d’agir promptement, dès réception d’une notification suffisamment motivée, pour bloquer l’accès aux œuvres et autres objets protégés faisant l’objet de la notification ou pour les retirer de leurs sites Internet garantirait une protection efficace des droits de ces titulaires.
123. Je ne suis pas de cet avis.
124. À cet égard, je rappelle que le test de « nécessité » revient à vérifier s’il existe des mesures alternatives qui seraient aussi efficaces que la mesure choisie pour atteindre l’objectif poursuivi tout en étant moins contraignantes (150).
125. Or, comme le soutiennent, en substance, le Parlement et le Conseil, un régime de responsabilité imposant uniquement les obligations prévues au point a) et au point c), in principio, du paragraphe 4 de l’article 17 de la directive 2019/790 ne serait clairement pas aussi efficace pour atteindre l’objectif poursuivi par le législateur de l’Union qu’un régime prévoyant, en outre, les obligations découlant du point b) et du point c), in fine, de ce paragraphe – même si les premières obligations sont effectivement moins contraignantes pour le droit à la liberté d’expression que les secondes (151).
126. En effet, d’une part, si, comme le fait valoir la requérante, l’obligation pour les fournisseurs de services de partage de fournir leurs « meilleurs efforts » pour obtenir une autorisation des titulaires de droits renforce déjà, en soi, la position de ces titulaires pour la négociation d’accords de licence avec ces fournisseurs, l’article 17 de la directive 2019/790 ne vise pas uniquement à assurer que lesdits titulaires reçoivent une rémunération équitable pour l’utilisation de leurs œuvres et autres objets protégés sur ces services. Il s’agit, plus largement, de garantir que ces mêmes titulaires puissent contrôler effectivement pareille utilisation et, en particulier, s’ils le souhaitent, empêcher que ces objets soient disponibles sur de tels services.
127. À cet égard, il est indéniable, d’autre part, que, comme le soulignent les parties défenderesses, un système de notification et retrait, tel que celui résultant de l’article 14 de la directive 2000/31 et repris, en substance, à l’article 17, paragraphe 4, sous c), in principio, de la directive 2019/790, ne permet pas aux titulaires concernés de s’opposer à l’utilisation illicite de leurs œuvres sur les services de partage aussi efficacement qu’un système, tel que celui résultant des dispositions attaquées, imposant, en outre, aux fournisseurs de ces services des obligations de surveillance.
3) La limitation en cause est « proportionnée » stricto sensu
128. Selon une jurisprudence constante de la Cour, une limitation à l’exercice d’un droit fondamental garanti par la Charte est considérée comme « proportionnée », au sens strict du terme, si les inconvénients causés par la mesure en cause ne sont pas démesurés par rapport aux buts visés (152).
129. En l’occurrence, les dispositions attaquées font s’opposer, d’une part, le droit à la liberté d’expression garanti à l’article 11 de la Charte et, d’autre part, le droit de propriété intellectuelle, protégé à l’article 17, paragraphe 2, de cet instrument. Comme le rappellent le Parlement, le Conseil et le gouvernement espagnol, il n’y a pas de « prééminence automatique » du premier droit sur le second (153). L’appréciation de la proportionnalité de ces dispositions doit donc s’effectuer, pour reprendre les termes employés par la Cour, « dans le respect de la conciliation nécessaire des exigences liées à la protection de ces différents droits fondamentaux » et d’un « juste équilibre » entre eux (154). D’ailleurs, en matière de droit d’auteur, la Cour a particulièrement insisté sur la nécessité de maintenir, dans l’environnement numérique, ce « juste équilibre » (155).
130. Or, la République de Pologne fait valoir que le législateur de l’Union n’a, précisément, pas maintenu cet équilibre à l’article 17 de la directive 2019/790. Selon elle, le préjudice causé à la liberté d’expression par les dispositions attaquées serait démesuré par rapport aux avantages qu’elles sont susceptibles de procurer en termes de protection des droits de propriété intellectuelle.
131. Pour ma part, j’estime, à l’instar du Parlement, du Conseil et de la Commission, que le législateur de l’Union pouvait faire le choix de revenir sur l’équilibre inhérent au régime de responsabilité applicable aux fournisseurs de services de partage [sous-section i)]. Le nouveau régime de responsabilité adopté emporte néanmoins des risques importants pour la liberté d’expression [sous-section ii)], nécessitant de prévoir des garanties suffisantes pour minimiser ces risques [sous-section iii)], ce que, selon moi, le législateur de l’Union a fait [sous-section iv)].
i) Le législateur de l’Union pouvait légitimement substituer un nouvel équilibre à celui qu’il avait initialement mis en œuvre
132. L’exonération de responsabilité prévue, pour les prestataires intermédiaires, à l’article 14 de la directive 2000/31 reflète un équilibre entre, notamment, la liberté d’expression et les droits de propriété intellectuelle, souhaité par le législateur de l’Union lors de l’adoption de cette directive. À l’époque, celui-ci entendait favoriser le développement de ces prestataires, afin de stimuler plus généralement la croissance du commerce électronique et des « services de la société de l’information » dans le marché intérieur. Il importait donc de ne pas imposer auxdits prestataires une responsabilité de nature à mettre en péril leur activité. Les intérêts des titulaires de droits devaient être sauvegardés et mis en balance avec la liberté d’expression des internautes dans le cadre du système de « notification et retrait » ainsi que dans le cadre des injonctions pouvant être prononcées à l’égard de ces mêmes prestataires (156).
133. Comme le fait valoir le Conseil, les circonstances ont indubitablement changé depuis. L’apparition des services du « Web 2.0 » a entraîné des avantages ainsi que des risques économiques et sociaux nouveaux, impactant les différents intérêts en jeu. Dans ce contexte, il était loisible au législateur de l’Union de réexaminer les choix qu’il avait faits près de vingt ans auparavant, d’apprécier ce changement de circonstance et d’évaluer ces avantages et ces risques (157).
134. À cet égard, ainsi que l’ont souligné le Parlement, le Conseil et le gouvernement français, le législateur de l’Union dispose d’un large pouvoir d’appréciation dans les domaines où son action implique des choix de nature tant politique qu’économique ou sociale, et où il est appelé à effectuer des appréciations et des évaluations complexes (158). Adapter le droit d’auteur à l’environnement numérique et fixer, en la matière, un régime de responsabilité pour les services de partage en ligne assurant un juste équilibre entre tous droits et intérêts en jeu est, à n’en point douter, une tâche « complexe » (159).
135. De manière similaire, la Cour EDH reconnaît aux autorités publiques une ample marge d’appréciation lorsqu’elles doivent ménager un équilibre entre différents droits protégés par la CEDH (160). Cette marge d’appréciation était d’autant plus importante, en l’occurrence, qu’il s’agissait, pour le législateur de l’Union, de réguler, en principe, non pas des discours politiques, mais l’utilisation d’œuvres et d’autres objets protégés (161).
136. Dans un contexte largement débattu (162), le législateur de l’Union a fait un choix politique en faveur des industries créatives. Il a estimé que l’équilibre antérieur entre les droits et intérêts en jeu n’était plus satisfaisant et qu’il convenait, afin de continuer à assurer aux titulaires de droits un niveau élevé de protection (163), d’adopter un nouveau régime de responsabilité pour certains prestataires de services du « Web 2.0 », en leur imposant certaines obligations de surveillance des contenus mis en ligne par les utilisateurs de leurs services. Compte tenu de l’ample marge d’appréciation dont disposait le législateur, j’estime qu’un tel choix n’était pas, dans son principe, disproportionné.
137. Plus spécifiquement, le caractère proportionné des dispositions attaquées réside, selon moi, dans le concours des éléments mis en avant par les parties défenderesses et les intervenants, à savoir, premièrement, l’importance du préjudice économique causé aux titulaires de droits par la mise en ligne illicite de leurs œuvres sur les services de partage en ligne, eu égard à la quantité gigantesque de contenu téléversée sur ces services et à la rapidité de l’échange d’informations sur Internet (164), deuxièmement, le fait que, pour ces mêmes raisons, le système de « notification et retrait » ne permet que difficilement à ces titulaires de contrôler l’utilisation de leurs œuvres sur lesdits services, troisièmement, les difficultés qu’ils connaissent pour poursuivre les utilisateurs responsables et, quatrièmement, le fait que les obligations de surveillance concernent des prestataires intermédiaires particuliers. Sur ce dernier point, j’observe que les fournisseurs de services de partage, par la promotion des contenus qu’ils effectuent (165), exercent une certaine influence sur les informations auxquelles le public accède. Ces aspects tendent, dans une certaine mesure (166), à rapprocher ces fournisseurs des intermédiaires traditionnels tels que les éditeurs, de sorte qu’il peut être proportionné d’adopter, en ce qui les concerne, un régime de responsabilité spécifique, différent de celui applicable aux autres hébergeurs (167).
138. De surcroît, comme le font valoir les gouvernements espagnol et français, la Cour EDH, dans son arrêt Delfi AS c. Estonie, a jugé qu’il n’était pas disproportionné, dans le cadre d’une mise en balance entre la liberté d’expression, au sens de l’article 10 de la CEDH, et le droit à l’honneur, garanti à l’article 8 de cette convention, de tenir un grand portail d’actualités en ligne responsable de ne pas avoir empêché la publication de certains types de commentaires illicites laissés par des utilisateurs sur son site Internet à la suite d’un article ou, à tout le moins, de ne pas les avoir retirés de sa propre initiative dans un bref délai.
139. Or, dans cet arrêt, la Cour EDH s’est attachée, premièrement, à l’ampleur du préjudice causé par de tels commentaires, compte tenu de la vitesse de circulation des informations en ligne (168) et, deuxièmement, au fait que, si le système de « notification et retrait » peut constituer dans bien des cas un outil approprié de mise en balance des droits et intérêts de tous les intéressés, il n’était pas suffisant pour faire cesser le grave préjudice résultant de tels commentaires (169). La Cour EDH a également souligné, troisièmement, qu’il aurait été difficile pour la victime de poursuivre les auteurs des commentaires et, quatrièmement, que l’exploitant du portail d’actualités exerçait une certaine influence sur les commentaires postés par les utilisateurs, de sorte qu’il pouvait être justifié d’adopter une approche spécifique en matière de responsabilité en ce qui concerne un tel intermédiaire (170). Une certaine analogie est donc possible avec la présente affaire (171).
ii) Les risques inhérents à un régime de responsabilité tel que celui résultant des dispositions attaquées
140. Comme le soutient, en substance, le Parlement, dans la mesure où le filtrage que doivent effectuer les fournisseurs de services de partage en application des dispositions attaquées empêchera la diffusion, sur ces services, de contenus violant les droits d’auteur ou les droits voisins, la limitation à l’exercice du droit à la liberté d’expression qui résulte de ces dispositions est, en ce qui concerne ces contenus, justifiée.
141. Néanmoins, le lien que le législateur de l’Union a établi, dans lesdites dispositions, entre responsabilité des fournisseurs de services de partage et efficacité de ce filtrage emporte un risque important pour la liberté d’expression, à savoir celui d’un « sur‑blocage » de contenus licites.
142. Un tel risque de « sur-blocage » existe, de manière générale, lorsque les autorités publiques tiennent les prestataires intermédiaires pour responsables des informations illicites fournies par les utilisateurs de leurs services. Afin d’échapper à tout risque de responsabilité, ces intermédiaires peuvent avoir tendance à faire preuve de zèle et à bloquer exagérément ces informations au moindre doute sur leur licéité (172).
143. En l’occurrence, le risque est, plus spécifiquement, que les fournisseurs de services de partage, afin d’éviter tout risque de responsabilité à l’égard des titulaires de droits, empêchent de manière systématique la mise à disposition, sur leurs services, de tous les contenus reproduisant les œuvres et les autres objets protégés pour lesquels ils ont reçu des « informations pertinentes et nécessaires » ou une « notification suffisamment motivée » de ces derniers, y compris ceux ne portant pas atteinte à leurs droits (173).
144. En effet, outre le fait que certains des utilisateurs souhaitant mettre en ligne les contenus concernés pourraient disposer d’une licence sur les œuvres et objets en question, les titulaires de droits n’ont pas un monopole absolu sur l’utilisation de leurs objets protégés. L’article 5, paragraphe 3, de la directive 2001/29 contient, à cet égard, une liste d’exceptions et limitations au droit exclusif de « communication au public ». Ces exceptions et limitations assurent, en principe, un « juste équilibre » entre, d’une part, l’intérêt de ces titulaires à la protection de leur propriété intellectuelle et, d’autre part, la protection des intérêts et des droits fondamentaux des utilisateurs d’objets protégés, ainsi que de l’intérêt général (174) – notamment l’accès du public à la culture. En particulier, plusieurs desdites exceptions et limitations, dont celles relatives à la citation, à la critique, et à la revue (175) ainsi que celles relatives à la caricature, à la parodie et au pastiche (176) font, dans leurs champs d’application respectifs, prévaloir le droit à la liberté d’expression et de création des utilisateurs sur l’intérêt desdits titulaires.
145. Or, précisément, une partie significative des contenus mis en ligne par les utilisateurs sur les services de partage consiste en des utilisations, voire des réappropriations créatives, d’œuvres et d’autres objets protégés susceptibles d’être couvertes par ces exceptions et limitations (177).
146. Néanmoins, la question de savoir si une telle exception ou limitation est applicable à un contenu donné dépend du contexte et nécessite une certaine analyse (178). La ligne séparant une utilisation légitime de la contrefaçon peut s’avérer, dans différents cas, discutable (179). Dans toutes ces situations équivoques, il pourrait sembler plus simple aux fournisseurs de services de partage d’empêcher la mise à disposition des contenus concernés plutôt que de devoir plaider eux‑mêmes, dans le cadre d’une éventuelle action en responsabilité intentée par les titulaires de droits, l’application de ces exceptions ou limitations (180).
147. Le risque de « sur-blocage » que je viens de décrire est accru, en l’occurrence, par le fait que les conditions d’exonération posées à l’article 17, paragraphe 4, sous b) et sous c), in fine, de la directive 2019/790 obligent de facto, dans bon nombre de cas, les fournisseurs de services de partage à recourir à des outils de reconnaissance automatique de contenu.
148. Il convient, à cet égard, de ne pas perdre de vue les limites inhérentes aux outils en question, limites que la requérante a dûment soulignées et qui, du reste, ont déjà été constatées par la Cour dans ses arrêts Scarlet Extended et SABAM (181). En effet, les outils de reconnaissance automatique de contenu détectent, précisément, des contenus, et non pas des atteintes au droit d’auteur. Ces outils, en particulier ceux fonctionnant selon la technique de l’« empreinte numérique », sont capables de détecter des correspondances, c’est‑à‑dire de reconnaître que le contenu d’un fichier donné reproduit, en tout ou partie, celui d’un fichier de référence (182). En revanche, comme le fait valoir la République de Pologne, lesdits outils ne sont pas capables, en l’état actuel, d’apprécier le contexte dans lequel l’œuvre reproduite est utilisée et, notamment, d’identifier l’application d’une exception ou limitation au droit d’auteur (183). Le risque de « sur-blocage » est d’autant plus important que la capacité de ces mêmes outils à reconnaître des correspondances sur des extraits de plus en plus courts (par exemple, quelques secondes pour un phonogramme) augmente. Leur utilisation emporte donc le risque de priver les utilisateurs d’un espace d’expression et de création permis par lesdites exceptions et limitations (184). En outre, la capacité des outils de reconnaissance automatique à identifier des contenus contrefaisants dépend de la précision et de la véracité des informations fournies par les titulaires de droits. L’utilisation de ces outils peut donc entraîner des réclamations injustifiées concernant, par exemple, des œuvres relevant du domaine public (185), sur la base d’informations de référence erronées ou abusives (risque dit de « sur-réclamation ») (186).
iii) La nécessité de prévoir des garanties suffisantes pour minimiser ces risques
149. Compte tenu des risques de « sur-blocage » décrits dans la sous-section précédente, un régime de responsabilité tel que celui résultant des dispositions attaquées doit, selon moi, être accompagné de garanties suffisantes pour minimiser ces risques et, ainsi, assurer que l’ampleur de l’ingérence dans la liberté d’expression soit précisément encadrée (187). De manière générale, toute sorte de délégation, par les autorités publiques, du contrôle de la légalité en ligne aux prestataires intermédiaires (188), prenant la forme d’obligations de surveillance imposées directement ou indirectement à ces intermédiaires, doit être entourée par de telles garanties.
150. Plus spécifiquement, j’estime qu’un tel régime doit s’inscrire dans un cadre légal fixant des règles claires et précises régissant la portée et l’application des mesures de filtrage devant être mises en œuvre par les prestataires de services visés, de nature à assurer aux utilisateurs de ces services une protection efficace contre le blocage abusif ou arbitraire des informations qu’ils souhaitent mettre en ligne (189).
151. Je souligne également que, lorsque la limitation des droits fondamentaux procède de la législation de l’Union elle-même, et qu’elle lui est donc imputable, comme c’est le cas en l’occurrence (190), le législateur de l’Union a une part importante de responsabilité à cet égard. Il ne saurait, dans une telle hypothèse, totalement abandonner aux États membres – ou, a fortiori, aux prestataires de services chargés de mettre en œuvre cette législation – le soin d’établir de telles garanties. Il doit, au contraire, en définir à tout le moins la substance (191). Cela étant, dès lors qu’il s’agit, en l’occurrence, d’une directive, concernant qui plus est un domaine technique, certaines modalités d’application devront être précisées par les États membres – ainsi que par la Commission (192).
152. J’ajouterais que la nécessité, pour le législateur de l’Union, de prévoir la substance de ces garanties est indispensable pour assurer l’application uniforme de la législation de l’Union dans tous les États membres – une telle uniformité étant d’autant plus nécessaire qu’est en cause, en l’occurrence, une directive d’harmonisation adoptée sur le fondement de l’article 114 TFUE. Les fournisseurs de services de partage, qui opèrent au niveau international, ne devraient pas avoir à se soumettre à 27 régimes nationaux de responsabilité susceptibles de diverger quant à l’étendue des obligations de filtrage qui leurs sont imposées. Surtout, les utilisateurs de ces services devraient bénéficier d’une protection substantiellement identique contre les mesures de blocage abusives ou arbitraires, quel que soit l’État membre dans lequel ils se trouvent.
153. En résumé, si le législateur de l’Union dispose d’une ample marge d’appréciation pour décider du principe d’un régime de responsabilité tel que celui prévu dans les dispositions attaquées, il ne peut, en revanche, faire l’économie des garanties suffisantes pour minimiser les risques en résultant pour la liberté d’expression. Il revient à la Cour, selon moi, de faire un contrôle scrupuleux du respect de cette exigence (193).
iv) Les garanties prévues en l’occurrence
154. La République de Pologne soutient que le législateur de l’Union n’a pas satisfait à ladite exigence en l’occurrence. Selon elle, les dispositions attaquées ne seraient accompagnées d’aucune garantie de nature à encadrer l’ampleur de l’ingérence dans la liberté d’expression des utilisateurs des services de partage.
155. En revanche, les parties défenderesses et les intervenants font valoir que l’article 17 de la directive 2019/790 comporte un « système de garanties complet ». Les dispositions attaquées seraient, en effet, indissociables des paragraphes 5, 7, 8 et 9 de cet article. Ces paragraphes établiraient des règles claires et précises définissant la portée et l’application des mesures devant être mises en œuvre par les fournisseurs de services de partage et préserveraient, en cela, un « juste équilibre » entre les droits de propriété intellectuelle et la liberté d’expression.
156. Le paragraphe 5 de l’article 17 de la directive 2019/790, qui indique, je le rappelle, que les mesures devant être prises par chaque fournisseur doivent être appréciées, compte tenu du principe de proportionnalité, au regard d’éléments tels que la « taille du service » ou le « coût » des outils disponibles, me semble être pertinent davantage pour la question du respect de la liberté d’entreprise, qui ne fait pas l’objet de la présente affaire, qu’en ce qui concerne la liberté d’expression. Je n’estime donc pas nécessaire de revenir dessus.
157. En revanche, les paragraphes 7, 8 et 9 de cet article contiennent effectivement, à mes yeux, des garanties significatives pour protéger les utilisateurs des services de partage contre les mesures de blocage abusives ou arbitraires de leurs contenus. Je les examinerai donc dans les sous-sections qui suivent.
– Le droit aux utilisations légitimes des objets protégés (paragraphe 7) et le dispositif de traitement des plaintes (paragraphe 9)
158. Les parties défenderesses et les intervenants ont mis en avant, à juste titre, le fait que l’une des principales garanties visant à limiter le risque que les fournisseurs de services de partage empêchent, en application des dispositions attaquées, la mise à disposition, sur leurs services, des contenus reproduisant de manière légitime les œuvres et autres objets protégés identifiés par les titulaires de droits figure au paragraphe 7 de l’article 17 de la directive 2019/790.
159. En effet, d’une part, le premier alinéa de ce paragraphe prévoit que « la coopération entre les fournisseurs de services de partage et les titulaires de droits (194) ne conduit pas à empêcher la mise à disposition d’œuvres ou d’autres objets protégés téléversés par des utilisateurs qui ne portent pas atteinte au droit d’auteur et aux droits voisins, y compris lorsque ces œuvres ou autres objets protégés sont couverts par une exception ou une limitation » (195).
160. D’autre part, conformément au second alinéa dudit paragraphe, les États membres doivent veiller à ce que les utilisateurs puissent se prévaloir des exceptions et limitations afférentes (a) à la citation, à la critique, et à la revue ainsi que (b) à l’utilisation à des fins de caricature, de parodie ou de pastiche (196) lorsqu’ils mettent en ligne des contenus sur les services de partage.
161. Il en ressort que le législateur de l’Union a expressément reconnu des droits subjectifs en matière de droit d’auteur aux utilisateurs des services de partage. Ces utilisateurs ont désormais le droit, opposable aux fournisseurs de ces services et aux titulaires de droits, d’utiliser de manière légitime, sur lesdits services, des objets protégés, y compris le droit de se prévaloir des exceptions et limitations au droit d’auteur et aux droits voisins (197). Cette reconnaissance, par le législateur, de l’importance de ces exceptions et limitations pour les utilisateurs coïncide avec la jurisprudence de la Cour qui, elle-même, a récemment reconnu que celles-ci « comportent des droits » au profit de ces derniers (198).
162. Je souligne que, conformément à l’article 17, paragraphe 7, de la directive 2019/790, les utilisateurs peuvent se prévaloir de l’ensemble des exceptions et limitations prévues par le droit de l’Union (199), et en particulier de celles énoncées à l’article 5 de la directive 2001/29 – dans la mesure, néanmoins, où elles figurent dans le droit national applicable. Or, tandis que cet article 5 laisse aux États membres la faculté de transposer les exceptions et limitations qu’il énumère (200), ce même paragraphe 7 oblige désormais ces derniers à prévoir, à tout le moins, les exceptions et limitations afférentes à la citation et à la parodie dans leur droit interne (201), eu égard à l’importance particulière de celles-ci pour la liberté d’expression.
163. Il s’ensuit, concrètement, que les fournisseurs des services de partage ne sont pas légalement autorisés à bloquer ou retirer les contenus faisant des utilisations légitimes d’œuvres ou d’autres objets protégés au motif que ces contenus contreviennent au droit d’auteur (202). Ils ne peuvent notamment plus exclure, dans leurs conditions générales d’utilisation ou dans le cadre d’accords contractuels avec les titulaires de droits, l’application des exceptions et limitations, en prévoyant, par exemple, qu’une simple allégation par ces derniers d’une violation du droit d’auteur suffira à justifier une telle mesure de blocage ou de retrait (203). Ces fournisseurs doivent, au contraire, informer leurs utilisateurs, dans ces mêmes conditions générales, qu’ils peuvent utiliser des œuvres et d’autres objets protégés dans le cadre desdites exceptions et limitations (204).
164. Selon moi, en adoptant le paragraphe 7 de l’article 17 de la directive 2019/790, le législateur de l’Union, conscient des risques de « sur-blocage » (205) pouvant résulter du régime de responsabilité qu’il a mis en place, et afin d’assurer un « juste équilibre » entre les droits et intérêts en jeu et de protéger la liberté d’expression des utilisateurs des services de partage (206), a prévu une limite claire et précise aux mesures de filtrage et de blocage devant être mises en œuvre par les fournisseurs de ces services en application du paragraphe 4 de cet article.
165. À cet égard, le Parlement, le Conseil et la Commission ont souligné, à bon droit, que ce même paragraphe 7, eu égard au caractère impératif des termes employés à son premier alinéa – « ne conduit pas » (207) –, impose une obligation de résultat aux fournisseurs de services de partage : ils sont tenus au résultat de ne pas empêcher la mise à disposition, sur leurs services, des contenus reproduisant de manière légitime des œuvres et autres objets protégés, quand bien même ces œuvres et objets auraient été identifiés par les titulaires de droits. La limite des mesures de filtrage et de blocage admissibles est donc nettement tracée : celles-ci ne doivent pas avoir pour objet ou pour effet d’empêcher ces utilisations légitimes. Cette disposition participe donc à contrecarrer la tendance au « zèle » de ces fournisseurs et, ainsi, à encadrer l’ampleur de l’ingérence dans la liberté d’expression afin qu’elle soit limitée à la diffusion des contenus violant les règles du droit d’auteur.
166. La République de Pologne rétorque néanmoins que, compte tenu des limitations inhérentes au fonctionnement des outils de reconnaissance de contenu, évoquées au point 148 des présentes conclusions, et notamment de leur incapacité à identifier l’application des exceptions et limitations au droit d’auteur, l’article 17, paragraphe 7, de la directive 2019/790 constituerait davantage un vœu pieux qu’une garantie effective. Dans les faits, les contenus relevant de ces exceptions et limitations seront bloqués automatiquement par lesdits outils. Cette disposition ne serait donc pas de nature à assurer aux utilisateurs des services de partage une protection efficace contre le blocage abusif ou arbitraire de leurs contenus.
167. L’argumentation de la requérante sur ce point reflète une divergence fondamentale de vues entre les parties et les intervenants s’agissant de la portée de ce paragraphe 7 et de la manière concrète dont les droits des utilisateurs doivent être respectés en pratique. En effet, deux interprétations distinctes de cette disposition ont été discutées devant la Cour à cet égard.
168. Selon une première interprétation, sur laquelle la République de Pologne fonde son recours et qui est, par ailleurs, avancée par les gouvernements espagnol et français, le (seul) mécanisme (208) assurant, en pratique, que les mesures de filtrage et de blocage prises par les fournisseurs de services de partage, en application des dispositions attaquées, n’empêchent pas la mise à disposition, sur leurs services, des utilisations légitimes des œuvres et autres objets protégés serait le « dispositif de traitement des plaintes et de recours » que, conformément au paragraphe 9 de l’article 17 de la directive 2019/790, ces fournisseurs doivent mettre à la dispositions des utilisateurs de leurs services « en cas de litige portant sur le blocage de l’accès à des œuvres ou autres objets protégés qu’ils ont téléversés ou sur leur retrait ».
169. Concrètement, les fournisseurs de services de partage devraient, conformément au souhait des titulaires de droits, bloquer ex ante tous les contenus reproduisant en tout ou partie les œuvres et autres objets protégés identifiés par ces derniers – indépendamment du point de savoir s’ils portent atteinte à leurs droits –, à charge pour un utilisateur estimant qu’il fait une utilisation légitime de ces objets, par exemple dans le cadre d’une exception ou limitation, de formuler une plainte en ce sens. À supposer que cette plainte soit fondée, le contenu concerné serait mis en ligne, ex post, à l’issue de son examen. Je précise que, si la requérante et les gouvernements espagnol et français se rejoignent dans leur compréhension de l’article 17, paragraphe 7, de la directive 2019/790, ils s’opposent radicalement quant aux conséquences qui doivent en être tirées (209).
170. Selon une seconde interprétation, avancée par le Parlement, le Conseil et la Commission, le droit des utilisateurs des services de partage de faire des utilisations légitimes d’objets protégés, prévu à l’article 17, paragraphe 7, de la directive 2019/790, devrait être pris en compte ex ante par les fournisseurs de ces services, dans le processus même de filtrage. En effet, les dispositions attaquées et ce paragraphe 7 devraient être lus ensemble, et les obligations qu’ils prévoient s’appliqueraient « simultanément ». Les « meilleurs efforts » que ces fournisseurs doivent déployer, conformément à ces dispositions, pour prévenir la mise en ligne des œuvres et objets protégés identifiés par les titulaires de droits ne sauraient donc se traduire, en pratique, par un blocage préventif et systématique de ces utilisations légitimes. Le dispositif de traitement des plaintes et de recours envisagé au paragraphe 9 de cet article 17 constituerait une garantie supplémentaire, et ultime, pour les situations dans lesquelles, en dépit de l’obligation figurant à ce même paragraphe 7, lesdits fournisseurs bloqueraient tout de même, par erreur, de tels contenus légitimes.
171. Je me rallie à cette dernière interprétation laquelle découle, selon moi, d’une analyse littérale, systématique et historique de l’article 17 de la directive 2019/790.
172. Tout d’abord, sur le plan textuel, je rappelle que, selon les termes de l’article 17, paragraphe 7, de la directive 2019/790, la coopération entre titulaires de droits et fournisseurs de services de partage ne doit pas conduire à « empêcher la mise à disposition » de contenus reproduisant de manière légitime des œuvres ou d’autres objets protégés. L’interprétation selon laquelle ces contenus pourraient être systématiquement bloqués ex ante, pour autant que les utilisateurs puissent en obtenir le rétablissement ex post, est loin, à mes yeux, d’être la manière la plus naturelle de comprendre ce libellé (210).
173. Ensuite, sur le plan systématique, comme le fait valoir la Commission, les dispositions attaquées et ce même paragraphe 7 doivent être lus à la lumière du paragraphe 9, troisième alinéa, dudit article 17, selon lequel ladite directive « n’affecte en aucune façon » les utilisations légitimes d’œuvres et d’objets protégés. Or, si les contenus concernés devaient être systématiquement bloqués ex ante, à charge pour les utilisateurs de formuler une plainte pour en obtenir la mise en ligne, ces utilisations légitimes seraient, à l’évidence, « affectées » d’une certaine manière.
174. J’observe également que la question des utilisations légitimes d’objets protégés est évoquée non seulement au considérant 70 de la directive 2019/790, qui porte sur le dispositif de traitement des plaintes, mais également à son considérant 66, premier alinéa (211), relatif aux mesures préventives devant être mises en œuvre par les fournisseurs de services de partage en application des dispositions attaquées. En outre, aux termes dudit considérant 70, premier alinéa, ce dispositif vise à « soutenir » – et non pas à « permettre » – de telles utilisation légitimes.
175. Enfin, les travaux préparatoires tendent à confirmer cette interprétation. À cet égard, j’observe que l’article 17, paragraphe 9, de la directive 2019/790 remonte à l’article 13, paragraphe 2, de la proposition de directive. Cette proposition ne contenait pas de disposition relative aux utilisations légitimes des œuvres et autres objets protégés. Une telle disposition a été ajoutée, par la voie d’amendements, lors de la première lecture du texte au sein du Parlement et du Conseil. Dans ces amendements, le dispositif de traitement des plaintes et de recours avait spécifiquement pour but de permettre ces usages légitimes (212). Or, après le premier rejet du texte par le Parlement le 5 juillet 2018, dans les versions ultérieures du texte, et dans celle finalement adoptée, la question des droits des utilisateurs et celle du dispositif de traitement des plaintes et de recours ont été séparées en deux dispositions distinctes.
176. Ce processus législatif démontre également, selon moi, que l’intention du législateur de l’Union a évolué à cet égard. Si l’article 13 de la proposition de directive était unilatéralement en faveur des titulaires de droits, cet article 13 a muté, lors de son adoption sous la forme de l’article 17 de la directive 2019/790, en une disposition complexe qui tâche de reconnaître et de mettre en balance les différents intérêts en jeu. Comme l’a fait valoir le Conseil, le législateur a fait le choix de protéger, dans cette disposition, tant les titulaires de droits que les utilisateurs. Comme le souligne le Parlement, cet article 17 reflète un compromis délicat à cet égard. Cette évolution ne saurait être ignorée lors de son interprétation (213).
177. L’interprétation, avancée par le Parlement, le Conseil et la Commission, selon laquelle les droits des utilisateurs au titre de l’article 17, paragraphe 7, de la directive 2019/790, doivent être pris en compte ex ante, et non pas seulement ex post, assure, de surcroît, la proportionnalité de la limitation à l’exercice du droit à la liberté d’expression résultant des dispositions attaquées (214).
178. À cet égard, il est vrai que le dispositif de traitement des plaintes et de recours envisagé à l’article 17, paragraphe 9, de la directive 2019/790 constitue tout à la fois une garantie essentielle et une avancée majeure par rapport à la directive 2000/31 (215). Il s’agit d’une composante nécessaire de tout système de filtrage, compte tenu du risque de « sur-blocage » qui en découle. Le législateur de l’Union a également entouré ce dispositif de « sous-garanties » procédurales. Ledit dispositif doit être « rapide et efficace » et les plaintes ainsi déposées traitées « sans retard indu ». En d’autres termes, les fournisseurs de services de partage sont tenus d’agir, en la matière, avec la même promptitude que celle dont ils doivent faire preuve s’agissant des notifications reçues des titulaires de droits, dans le cadre de l’article 17, paragraphe 4, sous c), de la directive 2019/790 (216). En outre, les titulaires de droits doivent justifier « dûment » leurs demandes de blocage et les plaintes doivent être examinées par une personne physique.
179. Qui plus est, conformément à ce même paragraphe 9, les États membres doivent également veiller à ce que des mécanismes de recours extrajudiciaires soient disponibles pour le règlement des litiges entre utilisateurs et titulaires de droits. De tels mécanismes sont utiles pour permettre le règlement impartial de ces litiges. Plus important encore, à mes yeux, les États membres sont tenus de prévoir des « voies de recours judiciaires efficaces » en la matière. À cet égard, dans son arrêt UPC Telekabel Wien (217), la Cour a souligné, en substance, qu’un tel droit à un recours juridictionnel effectif est indispensable pour assurer l’exercice, en ligne, du droit à la liberté d’expression.
180. Toutefois, si ces garanties procédurales sont importantes, elles ne seraient pas, à elles seules, suffisantes pour garantir un « juste équilibre » entre le droit d’auteur et la liberté d’expression des utilisateurs.
181. En premier lieu, conformément à la jurisprudence de la Cour et à celle de la Cour EDH, l’existence de telles garanties procédurales ne dispense pas les autorités publiques de veiller à minimiser l’effet collatéral d’une mesure de filtrage et de blocage. Il s’agit là d’exigences distinctes, et cumulatives.
182. En effet, ces deux juridictions ont itérativement jugé que toute mesure de filtrage et de blocage doit être « strictement ciblée », en ce sens qu’elle doit viser des contenus illicites et ne pas avoir d’effet arbitraire ou excessif sur les contenus licites (218). Dans son arrêt L’Oréal e.a. (219), la Cour a jugé, dans le même sens, que les mesures de surveillance imposées à un intermédiaire ne doivent pas créer d’obstacles aux utilisations licites de son service. Enfin, dans son arrêt UPC Telekabel Wien (220), elle a jugé qu’une mesure de blocage ne doit pas « [priver] inutilement » les internautes de la possibilité de partager des informations de manière licite et d’y accéder.
183. Cette jurisprudence n’implique pas que le droit à la liberté d’expression s’oppose à de telles mesures dès lors qu’elles seraient susceptibles d’entraîner le moindre blocage de contenus licites. Le terme « inutilement », utilisé par la Cour, reflète, selon moi, l’idée selon laquelle l’efficacité de la protection des droits des titulaires peut justifier certains cas de « sur-blocage ».
184. Néanmoins, il doit y avoir, là encore, un « juste équilibre » entre l’efficacité du filtrage et son effet collatéral. Ainsi qu’il ressort, en substance, de la jurisprudence de la Cour EDH, on ne saurait, dans une société démocratique, exiger une efficacité absolue – et, par là, un « risque zéro » quant aux éventuelles violations des droits d’auteur – lorsque cela aurait pour effet de bloquer un nombre non négligeable de contenus licites (221).
185. Le gouvernement français rétorque que, selon son interprétation de l’article 17 de la directive 2019/790, les mesures de filtrage que les fournisseurs de services de partage doivent déployer, en application des dispositions attaquées, satisferaient à cette exigence, dès lors qu’elles seraient « strictement ciblées » sur les contenus reproduisant tout ou partie des œuvres et autres objets protégés identifiés par les titulaires de droits.
186. Cette argumentation ne saurait être retenue. En effet, il ressort des arrêts Scarlet Extended et SABAM, qu’un système de filtrage qui bloquerait de manière systématique les contenus faisant une utilisation légitime d’objets protégés porterait une atteinte disproportionnée à la liberté d’expression et d’information (222) . Il en va ainsi, à mon sens, précisément parce que l’effet collatéral d’un tel filtrage est trop important pour être compatible avec cette liberté – et ce, indépendamment du point de savoir si les utilisateurs lésés bénéficient d’un droit de recours contre le blocage de leur information, aspect que la Cour n’a pas même évoqué dans ces arrêts.
187. Il y a de bonnes raisons à cela. En l’occurrence, d’une part, le blocage préventif de l’ensemble des contenus reproduisant les œuvres et autres objets protégés identifiés par les titulaires de droits aurait pour effet de faire systématiquement reposer le fardeau de l’inaction sur les utilisateurs, puisque la diffusion des contenus légitimes ne pourrait pas avoir lieu sans que ceux-ci formulent une plainte, avec succès. Si ces utilisateurs devaient systématiquement faire valoir leurs droits dans le cadre du dispositif de traitement des plaintes, il est fort probable qu’une partie significative d’entre eux renoncerait à le faire, faute, notamment, de connaissances suffisantes pour évaluer si l’utilisation qu’ils font de ces objets est légitime et si, partant, il existe des motifs pour formuler une telle plainte (223). Le « sur-blocage » préventif de toutes ces utilisations légitimes, et le renversement systématique sur les utilisateurs de la charge de démontrer cette légitimité, risqueraient ainsi d’entraîner, à court ou à long terme, un « chilling effect » sur la liberté d’expression et de création, se traduisant par une baisse de l’activité de ces mêmes utilisateurs (224).
188. D’autre part, l’échange d’informations en ligne se caractérise, notamment, par sa rapidité. Certains types de contenus téléversés sur les services de partage ne sont recherchés par le public que pendant une courte période, notamment ceux se référant à des événements d’actualité (225). Ces contenus deviennent ainsi, bien souvent, obsolètes en quelques jours. Retarder la mise en ligne de tels contenus par un blocage ex ante systématique risquerait de leur faire perdre toute actualité et tout intérêt pour le public. Partant, contrairement aux gouvernements espagnol et français, j’estime qu’un tel blocage systématique serait particulièrement problématique, quand bien même il ne serait que « temporaire », puisque l’éventuelle restauration des contenus à l’issue de l’examen des plaintes des utilisateurs ne permettrait pas de réparer le dommage causé à la liberté d’expression de ces derniers (226).
189. En second lieu, j’observe que la Cour insiste, dans sa jurisprudence récente, sur la nécessité de « sauvegarder l’effet utile » des exceptions et limitations au droit d’auteur, eu égard à leur importance pour le maintien d’un « juste équilibre » entre les droits et intérêts en jeu, tout particulièrement lorsqu’elles visent à garantir le respect de la liberté d’expression – comme c’est le cas de l’utilisation à des fins de citation, de critique ou de revue et de l’utilisation à des fins de caricature, de parodie ou de pastiche (227).
190. Or, précisément, afin de « sauvegarder l’effet utile » de ces exceptions et limitations, il importe, à mes yeux, de veiller à ce que les mesures préventives prises en application des dispositions attaquées n’entravent pas de manière systématique le droit des utilisateurs d’en faire usage. Si les titulaires de droits disposent, dans l’environnement numérique, de possibilités de contrôle de leurs objets protégés sans équivalent dans le « monde réel » – puisque les outils de reconnaissance de contenu leur donnent virtuellement les moyens de prévenir toutes les utilisations de ces objets, y compris celles qui ne relèvent pas de leur monopole, telle que la parodie –, il y a lieu de protéger d’autant ces mêmes exceptions et limitations. Le danger, à cet égard, serait qu’une protection maximale de certaines créations intellectuelles se fasse au détriment d’autres formes de création tout aussi socialement souhaitables (228).
191. Il découle de tout ce qui précède, selon moi, que, conformément à une lecture conjointe des dispositions attaquées et du paragraphe 7 de l’article 17 de la directive 2019/790, les mesures de filtrage que les fournisseurs de services de partage sont tenus de mettre en œuvre doivent être conformes à deux obligations cumulatives : elles doivent tâcher de prévenir la mise en ligne de contenus reproduisant de manière illicite les œuvres et les autres objets protégés identifiés par les titulaires de droits, tout en n’empêchant pas la mise à disposition des contenus reproduisant ces objets de manière licite.
192. Contrairement à ce que fait valoir la requérante, les fournisseurs de services de partage ne peuvent donc pas « appliquer toute mesure disponible » pour protéger les droits de propriété intellectuelle des titulaires (229). Les « meilleurs efforts » et la « diligence professionnelle » dont ils doivent faire preuve à cet égard sont à lire à la lumière de l’article 17, paragraphe 7, de la directive 2019/790. Puisque ces fournisseurs se trouvent dans une position professionnelle bilatérale par rapport aux utilisateurs et aux titulaires de droits, ils doivent agir « diligemment » à l’égard de ces deux catégories.
193. L’article 17, paragraphe 7, de la directive 2019/790 oblige ainsi ces fournisseurs – mais aussi les autorités administratives et judiciaires des États membres lorsqu’elles supervisent la mise en œuvre de cet article (230) – à considérer l’effet collatéral des mesures de filtrage qu’ils mettent en œuvre (231). Ils ne peuvent donc pas bloquer préventivement et systématiquement les contenus relevant, notamment, des exceptions et limitations au droit d’auteur. Ils doivent prendre en compte, ex ante, le respect des droits des utilisateurs. J’invite la Cour à affirmer sans ambages, dans son arrêt à venir, qu’il s’agit là de la juste interprétation de cet article 17.
– L’interdiction des obligations générales de surveillance (paragraphe 8)
194. Le paragraphe 8 de l’article 17 de la directive 2019/790 dispose que « l’application de [cet article] ne donne lieu à aucune obligation générale de surveillance ». Partant, les dispositions attaquées doivent être lues également à la lumière de ce paragraphe.
195. Or, en réaffirmant l’interdiction d’une telle « obligation » (232), le législateur de l’Union a, selon moi, posé une autre garantie significative pour la liberté d’expression. En effet, cette interdiction encadre la portée des mesures de filtrage qui peuvent être attendues de tout prestataire intermédiaire et, en l’occurrence, des fournisseurs de services de partage.
196. Des enseignements peuvent, à cet égard, être déduits de l’arrêt Glawischnig-Piesczek, que j’ai évoqué précédemment (233). Dans cet arrêt, la Cour, interprétant ladite interdiction, dans sa version issue de l’article 15 de la directive 2000/31, a considéré que l’exploitant d’un réseau social pouvait se voir imposer, par le truchement d’une injonction judiciaire, l’obligation de rechercher et de bloquer, parmi les informations mises en ligne sur ce réseau, « une information précise [...] dont le contenu a été analysé et apprécié par une juridiction compétente [...] qui, à l’issue de son appréciation, l’a déclarée illicite » (234). La juridiction pouvait ainsi exiger de cet exploitant qu’il bloque l’accès à toutes les informations identiques à celle-ci. L’injonction pouvait même s’étendre aux informations équivalentes, pour autant que ledit exploitant ne soit pas obligé de procéder à une « appréciation autonome » de leur licéité et qu’il puisse, au contraire, « recourir à des techniques et à des moyens de recherche automatisés » (235).
197. Il en ressort, de manière générale, que, si les prestataires intermédiaires sont, d’un point de vue technique, bien placés pour lutter contre la présence de certaines informations illicites diffusées par le truchement de leurs services (236), on ne saurait attendre d’eux qu’ils fassent des « appréciations autonomes » de légalité des informations en cause. Ces prestataires intermédiaires ne présentent généralement pas l’expertise et surtout l’indépendance nécessaires – a fortiori lorsque pèse sur eux la menace d’une lourde responsabilité (237). Ils ne sauraient donc être transformés en arbitres de la légalité en ligne, chargés de trancher des questions juridiques complexes (238).
198. Par conséquent, afin de minimiser le risque de « sur‑blocage » et, ainsi, de garantir le respect du droit à la liberté d’expression, un prestataire intermédiaire peut, selon moi, uniquement être tenu de filtrer et de bloquer des informations dont l’illicéité a, au préalable, été établie par un juge ou, à défaut, des informations dont le caractère illicite s’impose d’emblée, c’est‑à‑dire manifestement, sans, notamment, qu’il soit nécessaire de les contextualiser (239).
199. J’observe, d’ailleurs, que les obligations de surveillance que la Cour EDH, dans son arrêt Delfi A.S. c. Estonie, a considéré comme justifiées concernaient des informations manifestement illicites (240). Dans sa jurisprudence subséquente, la Cour EDH a précisé que, s’agissant des informations dont le caractère illicite ne s’impose pas d’emblée et nécessite une analyse contextuelle, pareille surveillance ne saurait être exigée (241). Pour ce dernier type d’informations, une notification dûment motivée, fournissant les éléments de contexte de nature à rendre l’illégalité apparente, voire, lorsque pareille notification n’est pas suffisante à cet égard, une injonction judiciaire, est nécessaire pour en obtenir le retrait.
200. De manière spécifique, comme je l’ai expliqué dans mes conclusions dans les affaires jointes YouTube et Cyando (242), transposé au domaine du droit d’auteur, il découle de l’arrêt Glawischnig-Piesczek que, si conformément à l’article 15 de la directive 2000/31, un prestataire intermédiaire ne saurait être obligé de procéder à un filtrage généralisé des informations qu’il stocke à la recherche de n’importe quelle contrefaçon, cette disposition ne s’opposerait pas, a priori, à ce que ce prestataire soit contraint de procéder à un blocage concernant un fichier précis, faisant une utilisation illicite d’une œuvre protégée, préalablement constatée par un juge. Ladite disposition ne s’opposerait pas, dans ce cadre, à ce que le prestataire soit tenu de détecter et bloquer non seulement les copies identiques de ce fichier, mais également d’autres fichiers équivalents, c’est-à-dire, ceux faisant une même utilisation de l’œuvre en question.
201. Cette interprétation est, selon moi, transposable, mutatis-mutandis, à l’article 17, paragraphe 8, de la directive 2019/790. Dans la mesure où, dans le système de cet article 17, le caractère illicite des contenus à filtrer n’a pas, au préalable, été établi par une juridiction, il ne peut s’agir, conformément à ce qui a été expliqué au point 198 des présentes conclusions, que de rechercher des contenus qui, au regard des informations fournies par les titulaires de droits, apparaissent manifestement contrefaisants. En application des dispositions attaquées, lues à la lumière de ce paragraphe 8, les mesures de filtrage que les fournisseurs de services de partage sont tenus de déployer, en application des dispositions attaquées, doivent donc, selon moi, se limiter aux contenus qui sont « identiques » ou « équivalents » aux œuvres et autres objets protégés identifiés par les titulaires de droits (243).
202. La première catégorie évoquée au point précédent vise, concrètement, les reproductions à l’identique, sans éléments supplémentaires ou valeur ajoutée, des œuvres et autres objets protégés identifiés par les titulaires de droits. La seconde se rapporte aux contenus qui reproduisent ces objets de la même manière, tout en présentant des modifications insignifiantes, de sorte que le public ne les différencierait pas des objets originaux (par exemple en cas de simples altérations techniques destinées à contourner le système de filtrage, tel qu’un changement de format, le renversement ou la modification de la vitesse de l’image, etc.) (244). La détection de ces deux catégories de contenus ne réclamera pas des fournisseurs de services de partage qu’ils fassent une « appréciation autonome » de leur légalité – la contrefaçon apparaîtra manifeste au regard des informations « pertinentes et nécessaires » fournies par les titulaires de droits – et pourra être réalisée à l’aide de « techniques et [...] moyens de recherche automatisés » (245).
203. En revanche, on ne saurait exiger des fournisseurs de services de partage qu’ils filtrent préventivement également les contenus qui, tout en reproduisant des œuvres et objets protégés identifiés par les titulaires de droits, diffèrent sensiblement de ces derniers, comme c’est le cas des réutilisations d’extraits d’œuvres dans d’autres contextes, des contenus « transformatifs », etc., susceptibles d’être couverts par des exceptions et limitations au droit d’auteur. L’identification des contrefaçons susceptibles de s’y trouver impliquerait, de la part de ces fournisseurs, des « appréciations autonomes », puisqu’il leur faudrait évaluer le contexte de ces utilisations. Or, comme le soutient la République de Pologne, les questions complexes du droit d’auteur, relatives notamment à la portée exacte des exceptions et limitations, ne sauraient être abandonnées auxdits fournisseurs. Il ne revient pas à ces mêmes fournisseurs de décider des limites de la créativité en ligne, en examinant eux-mêmes, par exemple, si le contenu qu’un utilisateur projette de téléverser satisfait aux exigences de la parodie. Une telle délégation entraînerait un risque de « sur-blocage » inacceptable. De telles questions doivent être laissées au juge.
– Les conséquences qui découlent de ce qui précède
204. Il ressort des sections qui précèdent, selon moi, que l’article 17 de la directive 2019/790 contient des garanties suffisantes pour encadrer l’étendue de la limitation de l’exercice du droit à la liberté d’expression résultant des dispositions attaquées.
205. D’une part, conformément au paragraphe 7 de cet article, les fournisseurs de services de partage ne sont pas autorisés à bloquer préventivement, en application des dispositions attaquées, l’ensemble des contenus reproduisant les œuvres et autres objets protégés identifiés par les titulaires de droits, y compris ceux susceptibles d’être licites. D’autre part, en vertu du paragraphe 8 dudit article, ces fournisseurs ne peuvent être tenus de détecter et de bloquer que les contenus qui sont « identiques » et « équivalents » à ces objets, c’est‑à‑dire dont l’illicéité apparaît manifeste au regard des informations « pertinentes et nécessaires » fournies par les titulaires de droits. Dans de tels cas, la contrefaçon étant hautement probable, ces contenus peuvent être présumés illicites. Il est donc proportionné de les bloquer préventivement, à charge pour les utilisateurs concernés d’en démontrer la licéité – par exemple, le fait qu’ils disposent d’une licence, ou que l’œuvre est en réalité dans le domaine public (246) – dans le cadre du dispositif de traitement des plaintes. En somme, les « meilleurs efforts » imposés aux fournisseurs de services de partage, conformément aux dispositions attaquées, consistent à bloquer ces contrefaçons manifestes (247).
206. À l’inverse, dans toutes les situations équivoques – courts extraits d’œuvres repris dans des contenus plus longs, œuvres « transformatives », etc. – dans lesquelles, en particulier, l’application d’exceptions et limitations au droit d’auteur serait raisonnablement envisageable, les contenus concernés ne sauraient faire l’objet d’une mesure de blocage préventive.
207. En effet, comme l’ont souligné le Parlement, le Conseil et la Commission, l’obligation de résultat, prévue à l’article 17, paragraphe 7, premier alinéa, de la directive 2019/790, de ne pas empêcher la mise en ligne de contenus légitimes est, à cet égard, plus contraignante que les obligations de « meilleurs efforts » résultant des dispositions attaquées, qui constituent des obligations de moyens (248). Cela signifie que le législateur de l’Union a entendu, à juste titre selon moi, assurer que, dans pareille hypothèse, les fournisseurs de services de partage privilégient la liberté d’expression. En d’autres termes, le législateur a considéré que les « faux positifs », consistant à bloquer des contenus légaux, seraient plus graves que les « faux négatifs », revenant à laisser passer certains contenus illicites.
208. Ainsi, comme l’ont soutenu le Parlement, le Conseil et la Commission, dans ces situations équivoques, les contenus concernés doivent être présumés licites et, en conséquence, leur mis en ligne ne saurait être entravée.
209. La difficulté réside dans la définition de solutions pratiques pour mettre en œuvre cette dichotomie à l’aide des outils de reconnaissance automatique de contenu que, dans bon nombre de situations, les fournisseurs de services de partage devront utiliser. La requérante a d’ailleurs fait valoir que le législateur de l’Union n’a prévu, dans la directive 2019/790, aucune solution concrète à cet égard.
210. Cela étant, à mon sens, il revenait au législateur de l’Union, comme je l’ai indiqué, de prévoir la substance des garanties nécessaires pour minimiser les risques en matière de liberté d’expression découlant des dispositions attaquées. En revanche, comme l’a fait valoir le Conseil, dans un domaine impliquant de prendre des mesures techniques, tel que celui en cause dans la présente affaire, et compte tenu du fait que l’article 17 de la directive 2019/790 s’appliquera à différents types de fournisseurs, de services et d’objets protégés, il appartient aux États membres et à la Commission d’en concrétiser les modalités (249).
211. En pratique, ces solutions consisteront à intégrer, dans les outils de reconnaissance de contenu, des paramètres permettant d’aider à distinguer le manifeste de l’équivoque. Cela peut varier selon les types d’objets protégés et d’exceptions en cause. Il s’agira, par exemple, de tenir compte des taux de correspondance détectés par ces outils, ainsi que de fixer des seuils au-dessus desquels le blocage automatique d’un contenu est justifié, et en dessous desquels l’application d’une exception, telle que la citation, est raisonnablement envisageable (250). Une telle solution pourrait être couplée avec un mécanisme permettant aux utilisateurs d’indiquer (flagging), lors de, ou immédiatement après la mise en ligne, si, selon eux, ils bénéficient d’une exception ou limitation, ce qui impliquerait, pour le fournisseur concerné, de faire une revue manuelle du contenu en cause afin de vérifier si l’application de cette exception ou limitation est manifestement exclue ou, au contraire, raisonnablement envisageable (251).
212. De manière générale, s’agissant des différents types de fournisseurs, de services et d’œuvres ou d’objets protégés, la définition de ces solutions pratiques ne peut ni être abandonnée auxdits fournisseurs ni, contrairement à ce que fait valoir le gouvernement français, être totalement laissée aux titulaires de droits (252). Eu égard à l’importance desdites solutions pour la liberté d’expression des utilisateurs, elles devront non pas être définies de manière opaque par ces seules parties privées, mais de manière transparente sous la supervision d’autorités publiques.
213. Selon moi, c’est précisément là que réside l’utilité du dialogue entre parties prenantes envisagé par le législateur de l’Union à l’article 17, paragraphe 10, de la directive 2019/790. Cette disposition prévoit l’obligation pour la Commission, en coopération avec les États membres, d’organiser des dialogues entre les fournisseurs de services de partage, les titulaires de droits, les organisations d’utilisateurs et les autres parties prenantes concernées afin d’examiner les « meilleures pratiques pour la coopération entre les fournisseurs de services de partage et les titulaires de droits ». Sur cette base, la Commission doit émettre des orientations sur l’application de cet article 17, en particulier en ce qui concerne la manière de mettre en œuvre les dispositions attaquées. Dans ce processus, une « attention particulière » doit être accordée à « la nécessité de maintenir un équilibre entre les droits fondamentaux et le recours aux exceptions et aux limitations ». Ainsi, la Commission, avec l’aide des parties prenantes, est tenue de proposer des solutions pratiques permettant une mise en œuvre des dispositions attaquées, dans le respect des paragraphes 7 et 8 dudit article 17 (253).
214. Enfin, je précise que, comme le soutient la Commission, et en accord avec ce que j’ai indiqué au point 183 des présentes conclusions, l’obligation prévue à l’article 17, paragraphe 7, de la directive 2019/790 ne signifie pas que les mécanismes qui conduiraient à un nombre négligeable de cas de « faux positifs » seraient automatiquement contraires à cette disposition. Néanmoins, le taux d’erreur devrait être le plus faible possible. Il s’ensuit que, dans les hypothèses dans lesquelles il ne serait pas envisageable, en l’état actuel de la technologie, s’agissant par exemple de certains types d’œuvres et d’objets protégés, d’utiliser un outil de filtrage automatique sans entraîner un taux de « faux positif » non négligeable, l’utilisation d’un tel outil devrait, selon moi, être exclue au titre de ce paragraphe 7 (254).
215. L’interprétation suggérée dans les présentes conclusions n’est pas remise en cause par l’argument des gouvernements espagnol et français selon lequel il serait impératif de bloquer préventivement la totalité des contenus reproduisant en tout ou partie les objets protégés identifiés par les titulaires de droits afin d’éliminer tout risque de diffusion d’un contenu illicite sur un service de partage, une telle diffusion étant susceptible de leur causer un préjudice « irréparable », compte tenu de la rapidité de l’échange d’informations sur Internet.
216. En effet, si, à mes yeux, le risque de préjudice grave et imminent généré par une tentative de mise en ligne d’un contenu manifestement contrefaisant est de nature à justifier une mesure de blocage préventif de ce contenu (255), lesdits titulaires ne peuvent pas exiger le « risque zéro » quant aux éventuelles violations de leurs droits, comme je l’ai indiqué au point 184 des présentes conclusions. Il serait disproportionné d’appliquer de telles mesures à tous les cas, plus discutables, de potentiels dommages, éventuellement causés, par exemple, par des contenus « transformatifs » susceptibles de rentrer ou non dans le cadre des exceptions et limitations au droit d’auteur, qui ne sont pas en concurrence directe avec les objets protégés originaux (256). Pour ces situations, adopter pareilles mesures préventives risquerait, à l’inverse, de causer des dommages « irréparables » à la liberté d’expression, pour les raisons que j’ai expliquées au point 188 de ces conclusions.
217. En outre, la Cour a itérativement jugé « qu’il ne ressort nullement de l’article 17, paragraphe 2, de la Charte que le droit de propriété intellectuelle soit intangible et que, partant, sa protection doive nécessairement être assurée de manière absolue » (257).
218. Du reste, l’interprétation suggérée dans les présentes conclusions ne laisse pas les titulaires de droits sans protection en ce qui concerne ces contenus équivoques. Il ne s’agit notamment pas de revenir sur la portée du droit de communication au public en tant que telle (258). En effet, le fait que certains contenus reproduisant de manière illicite leurs œuvres et autres objets protégés ne soient pas bloqués au moment de la mise en ligne n’empêche pas ces titulaires, notamment (259), de demander le retrait ainsi que le blocage permanent des contenus en question par le truchement d’une notification, conformément à l’article 17, paragraphe 4, sous c), de la directive 2019/790 (260), contenant des explications raisonnables sur les motifs pour lesquels, par exemple, l’application d’une exception devrait être exclue(261). Le fournisseur concerné devra, pour sa part, examiner cette notification de manière diligente et décider si, à la lumière de ces nouveaux éléments, l’illégalité est apparente (262). À supposer que tel soit le cas, le fournisseur concerné devra, sous peine d’engager sa responsabilité, promptement bloquer l’accès au contenu ou le retirer de son site Internet. Comme le souligne la Commission, il ressort du considérant 66, deuxième alinéa, de la directive 2019/790 (263) que le législateur de l’Union avait prévu que, dans certains cas, cette manière de procéder soit la seule permettant de garantir l’indisponibilité d’un contenu donné. Dans l’hypothèse où l’illégalité ne serait pas apparente au regard de ces explications, au motif que le contenu en cause soulève des questions juridiques complexes et/ou nouvelles en matière de droit d’auteur, l’intervention du juge, seul compétent pour trancher de telles questions, sera en principe nécessaire. Il reviendra alors aux titulaires de droits de saisir une autorité judiciaire, sur le fondement notamment de l’article 8, paragraphe 3, de la directive 2001/29, afin que cette autorité statue sur ce contenu et, à supposer qu’il soit illicite, ordonne son blocage.
219. Comme l’a justement fait remarquer le Parlement, cela assure un « juste équilibre » entre les démarches imposées aux utilisateurs, dans certains cas, pour obtenir la mise en ligne de leurs contenus et celles exigées des titulaires de droits, dans d’autres cas, pour en obtenir le retrait (264).
4. Conclusion quant à la compatibilité de la limitation en cause avec la Charte
220. Il résulte de l’ensemble des considérations qui précèdent que la limitation à l’exercice du droit à la liberté d’expression et d’information résultant des dispositions attaquées, telles qu’interprétées dans les présentes conclusions, satisfait à toutes les conditions prévues à l’article 52, paragraphe 1, de la Charte. Cette limitation est donc, à mes yeux, compatible avec cet instrument. En conséquence, le recours de la République de Pologne doit être, selon moi, rejeté (265).
C. Post-scriptum
221. Consécutivement à la rédaction des présentes conclusions, au cours de leur traduction par les services de la Cour, deux documents importants ont été publiés.
222. D’une part, l’arrêt YouTube et Cyando (266) a été prononcé. Le raisonnement adopté par la Cour dans cet arrêt s’agissant des directives 2000/31 et 2001/29, que je ne peux examiner en détail ici, ne remet pas en cause, à mes yeux, les considérations développées dans les présentes conclusions (267).
223. D’autre part, la Commission a publié ses orientations sur l’application de l’article 17 de la directive 2019/790 (268). Pour l’essentiel, celles-ci reprennent ce que la Commission avait soutenu devant la Cour et reflètent les explications figurant aux points 158 à 219 des présentes conclusions. Néanmoins, lesdites orientations indiquent également, de manière inédite, que les titulaires de droits devraient avoir la possibilité de « réserver » (earmark) les objets dont la mise en ligne non autorisée serait « susceptible de leur causer un préjudice économique significatif ». Ces fournisseurs devraient faire preuve d’une diligence particulière à l’égard desdits objets. Il est encore indiqué que ces derniers ne rempliraient pas leurs obligations de « meilleurs efforts » s’ils permettaient la mise en ligne de contenus reproduisant ces mêmes objets en dépit de telles « réserves ». Si cela doit être compris en ce sens que ces mêmes fournisseurs devraient bloquer ex ante des contenus sur simple allégation d’un risque de préjudice économique important par les titulaires de droits – les orientations ne contenant pas d’autre critère limitant objectivement le mécanisme de « réservation » à des cas particuliers (269) –, quand bien même ces contenus ne seraient pas manifestement contrefaisants, je ne peux pas y souscrire, sauf à revenir sur l’ensemble des considérations exposées dans ces conclusions.
VI. Sur les dépens
224. Aux termes de l’article 138, paragraphe 1, du règlement de procédure de la Cour, toute partie qui succombe est condamnée aux dépens s’il est conclu en ce sens. Puisque, selon moi, le recours de la République de Pologne doit être rejeté et que le Parlement et le Conseil ont conclu en ce sens, cet État membre devrait être condamné aux dépens. Néanmoins, les gouvernements espagnol et français ainsi que la Commission, qui sont intervenus au litige, devraient supporter leurs propres dépens, conformément à l’article 140, paragraphe 1, de ce règlement.
VII. Conclusion
225. Eu égard à l’ensemble des considérations qui précèdent, je suggère à la Cour de :
– rejeter le recours de la République de Pologne ;
– condamner cet État membre aux dépens, et
– condamner le Royaume d’Espagne, la République française et la Commission européenne à supporter leurs propres dépens.