Language of document : ECLI:EU:C:2021:613

CONCLUSIONS DE L’AVOCAT GÉNÉRAL

M. HENRIK SAUGMANDSGAARD ØE

présentées le 15 juillet 2021 (1)

Affaire C401/19

République de Pologne

contre

Parlement européen,

Conseil de l’Union européenne

« Recours en annulation – Directive (UE) 2019/790 – Droit d’auteur et droits voisins – Utilisation de contenus protégés par des fournisseurs de services de partage de contenus en ligne – Communication au public – Responsabilité de ces fournisseurs – Article 17 – Exonération de responsabilité – Paragraphe 4, sous b) et sous c), in fine – Filtrage des contenus mis en ligne par les utilisateurs – Liberté d’expression et d’information – Charte des droits fondamentaux de l’Union européenne – Article 11, paragraphe 1 – Compatibilité – Garanties encadrant ce filtrage »






I.      Introduction

1.        Par le présent recours, introduit sur le fondement de l’article 263 TFUE, la République de Pologne demande à la Cour, à titre principal, d’annuler l’article 17, paragraphe 4, sous b) et sous c), in fine, de la directive (UE) 2019/790 du Parlement européen et du Conseil, du 17 avril 2019, sur le droit d’auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE (2) et, à titre subsidiaire, d’annuler cet article 17 dans son intégralité.

2.        Ce recours invite la Cour à examiner la question de la responsabilité supportée par les prestataires de services de partage en ligne lorsque des contenus protégés par le droit d’auteur ou les droits voisins sont téléversés (3) par les utilisateurs de ces services.

3.        Cette problématique a déjà été portée à l’attention de la Cour dans les affaires jointes C‑682/18, YouTube, et C‑683/18, Cyando, sous l’angle du cadre constitué par la directive 2000/31/CE relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur (« directive sur le commerce électronique ») (4) et par la directive 2001/29/CE sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information (5). Il s’agit, cette fois, d’examiner l’article 17 de la directive 2019/790, qui prévoit un nouveau régime de responsabilité applicable aux prestataires de services de partage en ligne.

4.        Ainsi qu’il sera expliqué dans les présentes conclusions, cette disposition impose à ces prestataires des obligations de surveillance des contenus que les utilisateurs de leurs services mettent en ligne, afin de prévenir le téléversement des œuvres et objets protégés que les titulaires de droits ne souhaitent pas rendre accessibles sur ces services. Cette surveillance préventive prendra, en règle générale, la forme d’un filtrage de ces contenus, réalisé à l’aide d’outils informatiques.

5.        Or, ce filtrage soulève des questions complexes, mises en avant par la requérante, au regard de la liberté d’expression et d’information des utilisateurs des services de partage, garantie à l’article 11 de la Charte des droits fondamentaux de l’Union européenne (ci-après la « Charte »). La Cour devra, dans le prolongement de ses arrêts Scarlet Extended (6), SABAM (7) ainsi que Glawischnig-Piesczek (8), déterminer si, et le cas échéant sous quelles conditions, un tel filtrage est compatible avec cette liberté. Il s’agira, pour elle, de tenir compte des avantages, mais également des risques qu’emporte pareil filtrage et, dans ce cadre, d’assurer qu’un « juste équilibre » soit maintenu entre, d’une part, l’intérêt des titulaires de droits à une protection effective de leur propriété intellectuelle et, d’autre part, l’intérêt de ces utilisateurs, et du public en général, à la libre circulation de l’information en ligne.

6.        Dans les présentes conclusions, j’expliquerai que, selon moi, le législateur de l’Union peut, dans le respect de la liberté d’expression, imposer certaines obligations de surveillance et de filtrage à certains intermédiaires en ligne, à condition, toutefois, que ces obligations soient encadrées par des garanties suffisantes pour minimiser l’impact d’un tel filtrage sur cette liberté. Dès lors que l’article 17 de la directive 2019/790 comporte, à mon avis, de telles garanties, je proposerai à la Cour de juger que cette disposition est valide et, en conséquence, de rejeter le recours de la République de Pologne (9).

II.    Le cadre juridique

A.      La directive 2000/31

7.        L’article 14 de la directive 2000/31, intitulé « Hébergement », dispose, à son paragraphe 1 :

« Les États membres veillent à ce que, en cas de fourniture d’un service de la société de l’information consistant à stocker des informations fournies par un destinataire du service, le prestataire ne soit pas responsable des informations stockées à la demande d’un destinataire du service à condition que :

a)      le prestataire n’ait pas effectivement connaissance de l’activité ou de l’information illicites et, en ce qui concerne une demande en dommages et intérêts, n’ait pas connaissance de faits ou de circonstances selon lesquels l’activité ou l’information illicite est apparente

ou

b)      le prestataire, dès le moment où il a de telles connaissances, agisse promptement pour retirer les informations ou rendre l’accès à celles-ci impossible. »

8.        L’article 15 de cette directive, intitulé « Absence d’obligation générale en matière de surveillance », prévoit, à son paragraphe 1 :

« Les États membres ne doivent pas imposer aux prestataires, pour la fourniture des services visée aux articles 12, 13 et 14, une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites. »

B.      La directive 2001/29

9.        L’article 3 de la directive 2001/29, intitulé « Droit de communication d’œuvres au public et droit de mettre à la disposition du public d’autres objets protégés », dispose, à ses paragraphes 1 et 2 :

« 1.      Les États membres prévoient pour les auteurs le droit exclusif d’autoriser ou d’interdire toute communication au public de leurs œuvres, par fil ou sans fil, y compris la mise à la disposition du public de leurs œuvres de manière que chacun puisse y avoir accès de l’endroit et au moment qu’il choisit individuellement.

2.      Les États membres prévoient le droit exclusif d’autoriser ou d’interdire la mise à la disposition du public, par fil ou sans fil, de manière que chacun puisse y avoir accès de l’endroit et au moment qu’il choisit individuellement:

a)      pour les artistes interprètes ou exécutants, des fixations de leurs exécutions ;

b)      pour les producteurs de phonogrammes, de leurs phonogrammes ;

c)      pour les producteurs des premières fixations de films, de l’original et de copies de leurs films ;

d)      pour les organismes de radiodiffusion, des fixations de leurs émissions, qu’elles soient diffusées par fil ou sans fil, y compris par câble ou par satellite. »

10.      L’article 5 de cette directive, intitulé « Exceptions et limitations », prévoit, à son paragraphe 3 :

« Les États membres ont la faculté de prévoir des exceptions ou limitations aux droits prévus aux articles 2 et 3 dans les cas suivants :

[...]

d)      lorsqu’il s’agit de citations faites, par exemple, à des fins de critique ou de revue [...] ;

[...]

k)      lorsqu’il s’agit d’une utilisation à des fins de caricature, de parodie ou de pastiche ;

[...] »

C.      La directive 2019/790

11.      L’article 17 de la directive 2019/790, intitulé « Utilisation de contenus protégés par des fournisseurs de services de partage de contenus en ligne », dispose :

« 1.      Les États membres prévoient qu’un fournisseur de services de partage de contenus en ligne effectue un acte de communication au public ou un acte de mise à la disposition du public aux fins de la présente directive lorsqu’il donne au public l’accès à des œuvres protégées par le droit d’auteur ou à d’autres objets protégés qui ont été téléversés par ses utilisateurs.

Un fournisseur de services de partage de contenus en ligne doit dès lors obtenir une autorisation des titulaires de droits visés à l’article 3, paragraphes 1 et 2, de la [directive 2001/29], par exemple en concluant un accord de licence, afin de communiquer au public ou de mettre à la disposition du public des œuvres ou autres objets protégés.

2.      Les États membres prévoient que, lorsqu’un fournisseur de services de partage de contenus en ligne obtient une autorisation, par exemple en concluant un accord de licence, cette autorisation couvre également les actes accomplis par les utilisateurs des services relevant du champ d’application de l’article 3 de la [directive 2001/29] lorsqu’ils n’agissent pas à titre commercia[l] ou lorsque leur activité ne génère pas de revenus significatifs.

3.      Quand un fournisseur de services de partage de contenus en ligne procède à un acte de communication au public ou à un acte de mise à la disposition du public, dans les conditions fixées par la présente directive, la limitation de responsabilité établie à l’article 14, paragraphe 1, de la [directive 2000/31] ne s’applique pas aux situations couvertes par le présent article.

Le premier alinéa du présent paragraphe n’affecte pas l’éventuelle application de l’article 14, paragraphe 1, de la [directive 2000/31] à ces fournisseurs de services pour des finalités ne relevant pas du champ d’application de la présente directive.

4.      Si aucune autorisation n’est accordée, les fournisseurs de services de partage de contenus en ligne sont responsables des actes non autorisés de communication au public, y compris la mise à la disposition du public, d’œuvres protégées par le droit d’auteur et d’autres objets protégés, à moins qu’ils ne démontrent que :

a)      ils ont fourni leurs meilleurs efforts pour obtenir une autorisation ; et

b)      ils ont fourni leurs meilleurs efforts, conformément aux normes élevées du secteur en matière de diligence professionnelle, pour garantir l’indisponibilité d’œuvres et autres objets protégés spécifiques pour lesquels les titulaires de droits ont fourni aux fournisseurs de services les informations pertinentes et nécessaires ; et en tout état de cause

c)      ils ont agi promptement, dès réception d’une notification suffisamment motivée de la part des titulaires de droits, pour bloquer l’accès aux œuvres et autres objets protégés faisant l’objet de la notification ou pour les retirer de leurs sites Internet, et ont fourni leurs meilleurs efforts pour empêcher qu’ils soient téléversés dans le futur, conformément au point b).

5.      Pour déterminer si le fournisseur de services a respecté les obligations qui lui incombent en vertu du paragraphe 4, et à la lumière du principe de proportionnalité, les éléments suivants sont, entre autres, pris en considération :

a)      le type, l’audience et la taille du service, ainsi que le type d’œuvres ou autres objets protégés téléversés par les utilisateurs du service ; et

b)      la disponibilité de moyens adaptés et efficaces et leur coût pour les fournisseurs de services.

[...]

7.      La coopération entre les fournisseurs de services de partage de contenus en ligne et les titulaires de droits ne conduit pas à empêcher la mise à disposition d’œuvres ou d’autres objets protégés téléversés par des utilisateurs qui ne portent pas atteinte au droit d’auteur et aux droits voisins, y compris lorsque ces œuvres ou autres objets protégés sont couverts par une exception ou une limitation.

Les États membres veillent à ce que les utilisateurs dans chaque État membre puissent se prévaloir de l’une quelconque des exceptions ou limitations existantes suivantes lorsqu’ils téléversent et mettent à disposition des contenus générés par les utilisateurs sur les services de partage de contenus en ligne :

a)      citation, critique, revue ;

b)      utilisation à des fins de caricature, de parodie ou de pastiche.

8.      L’application du présent article ne donne lieu à aucune obligation générale de surveillance.

Les États membres prévoient que les fournisseurs de services de partage de contenus en ligne fournissent aux titulaires de droits, à leur demande, des informations adéquates sur le fonctionnement de leurs pratiques en ce qui concerne la coopération visée au paragraphe 4 et, en cas d’accords de licence conclus entre les fournisseurs de services et les titulaires de droits, des informations sur l’utilisation des contenus couverts par les accords.

9.      Les États membres prévoient la mise en place par les fournisseurs de services de partage de contenus en ligne d’un dispositif de traitement des plaintes et de recours rapide et efficace, à la disposition des utilisateurs de leurs services en cas de litige portant sur le blocage de l’accès à des œuvres ou autres objets protégés qu’ils ont téléversés ou sur leur retrait.

Lorsque des titulaires de droits demandent à ce que l’accès à leurs œuvres ou autres objets protégés spécifiques soit bloqué ou à ce que ces œuvres ou autres objets protégés soient retirés, ils justifient dûment leurs demandes. Les plaintes déposées dans le cadre du dispositif prévu au premier alinéa sont traitées sans retard indu et les décisions de blocage d’accès aux contenus téléversés ou de retrait de ces contenus font l’objet d’un contrôle par une personne physique. Les États membres veillent également à ce que des mécanismes de recours extrajudiciaires soient disponibles pour le règlement des litiges. Ces mécanismes permettent un règlement impartial des litiges et ne privent pas l’utilisateur de la protection juridique accordée par le droit national, sans préjudice du droit des utilisateurs de recourir à des voies de recours judiciaires efficaces. En particulier, les États membres veillent à ce que les utilisateurs puissent s’adresser à un tribunal ou à une autre autorité judiciaire compétente pour faire valoir le bénéfice d’une exception ou d’une limitation au droit d’auteur et aux droits voisins.

La présente directive n’affecte en aucune façon les utilisations légitimes, telles que les utilisations relevant des exceptions ou limitations prévues par le droit de l’Union [...].

Les fournisseurs de services de partage de contenus en ligne informent leurs utilisateurs, dans leurs conditions générales d’utilisation, qu’ils peuvent utiliser des œuvres et autres objets protégés dans le cadre des exceptions ou des limitations au droit d’auteur et aux droits voisins prévues par le droit de l’Union.

10.      À compter du 6 juin 2019, la Commission organise, en coopération avec les États membres, des dialogues entre parties intéressées afin d’examiner les meilleures pratiques pour la coopération entre les fournisseurs de services de partage de contenus en ligne et les titulaires de droits. Après consultation des fournisseurs de services de partage de contenus en ligne, des titulaires de droits, des organisations d’utilisateurs et des autres parties prenantes concernées, et compte tenu des résultats des dialogues entre parties intéressées, la Commission émet des orientations sur l’application du présent article, en particulier en ce qui concerne la coopération visée au paragraphe 4. Lors de l’examen des meilleures pratiques, une attention particulière doit être accordée, entre autres, à la nécessité de maintenir un équilibre entre les droits fondamentaux et le recours aux exceptions et aux limitations. Aux fins des dialogues avec les parties intéressées, les organisations d’utilisateurs ont accès aux informations adéquates fournies par les fournisseurs de services de partage de contenus en ligne sur le fonctionnement de leurs pratiques en ce qui concerne le paragraphe 4. »

III. Les faits à l’origine du présent recours

A.      La proposition de directive sur le droit d’auteur dans le marché unique numérique

12.      Le 14 septembre 2016, la Commission européenne a présenté une proposition de directive sur le droit d’auteur dans le marché unique numérique (10). Cette proposition visait à adapter les règles de l’Union dans le domaine de la propriété littéraire et artistique – droit d’auteur et droits voisins du droit d’auteur –, en particulier la directive 2001/29, à l’évolution des technologies numériques (11). Elle visait également à poursuivre l’harmonisation dans ce domaine d’une manière qui, tout en continuant à garantir un niveau élevé de protection de la propriété intellectuelle, assure une large disponibilité des contenus créatifs dans toute l’Union et maintienne, dans l’environnement numérique, un « juste équilibre » avec d’autres intérêts public.

13.      Dans ce cadre, l’article 13 de ladite proposition tendait, plus spécifiquement, à remédier au « Value Gap », à savoir l’écart perçu entre la valeur que les prestataires de services de partage en ligne extraient des œuvres et objets protégés et les revenus qu’ils reversent aux titulaires de droits (12).

14.      À cet égard, il convient de rappeler que les services en question, caractéristiques du « Web 2.0 » interactif et dont YouTube (13), Soundcloud ou encore Pinterest sont les exemples les plus connus, permettent à tout un chacun de mettre en ligne automatiquement, sans sélection préalable par leurs prestataires, les contenus qu’il souhaite. Les contenus mis en ligne par les utilisateurs de ces services – communément désignés comme « user‑generated content » ou « user‑uploaded content » – peuvent ensuite être consultés en streaming (diffusion en flux continu) depuis les sites Internet ou applications pour appareils intelligents associées auxdits services – cette consultation étant facilitée par les fonctionnalités d’indexation, de recherche et de recommandation que l’on y trouve généralement –, et ce le plus souvent gratuitement – les prestataires de ces mêmes services se rémunérant d’ordinaire par la vente d’espaces publicitaires. Une quantité gigantesque de contenus (14) est ainsi mise à la disposition du public sur Internet, y compris une part conséquente d’œuvres et d’autres objets protégés.

15.      Or, à partir de l’année 2015, les titulaires de droits, en particulier ceux de l’industrie musicale, ont fait valoir que, tandis que ces services de partage occupent, dans les faits, une place importante dans la distribution en ligne d’œuvres et d’autres objets protégés et que leurs prestataires en tirent des recettes publicitaires considérables, ces derniers ne rémunèrent pas équitablement lesdits titulaires. Les revenus que ces prestataires reversent à ces mêmes titulaires seraient notamment insignifiants par rapport à ceux que les prestataires de services de streaming musical – tels que Spotify – leur versent, bien que ces deux types de services soient souvent perçus par les consommateurs comme des sources équivalentes d’accès auxdits objets. Il en résulterait également une concurrence déloyale entre lesdits services (15).

16.      Pour bien comprendre l’argument du « Value Gap », il faut revenir au cadre juridique applicable avant l’adoption de la directive 2019/790 et aux incertitudes qui l’entouraient.

17.      D’une part, l’article 3, paragraphe 1, de la directive 2001/29 reconnaît aux auteurs le droit exclusif d’autoriser ou d’interdire toute « communication au public » de leurs œuvres, y compris la « mise à la disposition du public » de ces œuvres de manière que chacun puisse y avoir accès de l’endroit et au moment qu’il choisit individuellement (16). Des droits similaires sont reconnus aux titulaires de droits voisins sur leurs objets protégés (17) au titre de l’article 3, paragraphe 2, de cette directive (18). En principe (19), un tiers ne peut donc pas « communiquer au public » une œuvre ou un objet protégé sans avoir, au préalable, obtenu une autorisation du ou des titulaires des droits sur celle-ci ou celui-ci, autorisation qui prend généralement la forme d’un accord de licence, octroyée contre rémunération (20). Or, s’il a toujours été clair que la mise en ligne, par un utilisateur, d’une œuvre ou d’un objet protégé sur un service de partage constitue un acte de « communication au public » nécessitant une telle autorisation préalable, la question de savoir si les prestataires de ces services devaient eux-mêmes conclure des accords de licence et rémunérer les titulaires de droits faisait l’objet d’une controverse, opposant ces prestataires auxdits titulaires (21).

18.      D’autre part, l’article 14 de la directive 2000/31 contient une « sphère de sécurité » (safe harbour) pour les prestataires de services de la société de l’information consistant à stocker des contenus fournis par les tiers. Cette disposition prévoit, en substance, que le prestataire d’un tel service est exonéré de toute responsabilité susceptible de résulter (22) des contenus illicites qu’il stocke à la demande des utilisateurs de ce service pour autant qu’il n’en ait pas connaissance ou que, le cas échéant, il les supprime promptement. Or, là encore, une controverse entourait le point de savoir si les prestataires des services de partage en ligne pouvaient bénéficier de cette exonération en matière de droit d’auteur (23).

19.      Ces controverses étaient d’autant plus vives que la Cour n’avait pas eu, jusqu’à présent, l’occasion de les trancher (24).

20.      Dans un tel contexte, certains prestataires de services de partage avaient tout simplement refusé de conclure des accords de licence avec les titulaires de droits pour les œuvres et objets protégés mis en ligne par les utilisateurs de leurs services, estimant qu’ils n’étaient pas tenus de le faire. D’autres prestataires avaient tout de même accepté de conclure de tels accords, mais les conditions de ces accords n’étaient pas, selon les titulaires de droits, équitables, faute pour ces derniers de pouvoir négocier sur une base égale avec lesdits prestataires (25).

21.      Cela étant rappelé, la proposition de directive visait donc, d’une part, à ce que les titulaires de droits puissent obtenir une meilleure rémunération pour l’utilisation de leurs œuvres et autres objets protégés sur les services de partage en ligne, en affirmant l’obligation, pour les prestataires de ces services, de conclure des accords de licence avec lesdits titulaires (26).

22.      D’autre part, cette proposition visait à permettre aux titulaires de droits de contrôler plus aisément l’utilisation de leurs œuvres et objets protégés sur les services en question. Son article 13 obligeait, à cet égard, les prestataires desdits services, en substance, à recourir aux outils de reconnaissance automatique de contenu déjà mis en place, de manière volontaire, par certains d’entre eux, c’est-à-dire des outils informatiques, dont le fonctionnement sera décrit plus loin (27), pouvant être utilisés notamment au moment de la mise en ligne d’un contenu par un utilisateur – d’où la désignation commune de ces outils par le terme d’« Upload filter » (filtres de mise en ligne) – pour vérifier, par le truchement d’un processus automatisé, si ce contenu inclut une œuvre ou un autre objet protégé et, le cas échéant, en bloquer la diffusion (28).

23.      La proposition de directive, en particulier son article 13, a donné lieu à de nombreux débats au sein du Parlement et du Conseil dans le cadre du processus législatif. Ce processus fut, en outre, marqué par d’intenses campagnes de lobbying de la part des opérateurs économiques concernés et par des démonstrations d’opposition d’une partie de la société civile, des milieux académiques et des défenseurs de la liberté d’expression, arguant des effets néfastes que l’obligation, pour les prestataires de services de partage, de mettre en place des « upload filters » serait, selon eux, susceptible d’avoir sur cette liberté (29).

24.      La proposition de directive a finalement été approuvée par le Parlement le 26 mars 2019 et par le Conseil le 16 avril 2019 (30). Cette proposition a été officiellement adoptée en tant que directive 2019/790 le 17 avril 2019. Elle devait être transposée par les États membres au plus tard le 7 juin 2021 (31).

B.      L’article 17 de la directive 2019/790

25.      Au cours de ce processus législatif, l’article 13 de la proposition de directive a subi diverses modifications. Il a été adopté, dans une rédaction sensiblement différente, en tant qu’article 17 de la directive 2019/790. Il me semble opportun d’en présenter dès à présent certains aspects fondamentaux.

26.      Premièrement, l’article 17 de la directive 2019/790 s’adresse, comme l’indique son intitulé, aux « fournisseurs de services de partage de contenus en ligne » (32). Cette notion est définie à l’article 2, point 6, premier alinéa, de cette directive comme visant tout « fournisseur d’un service de la société de l’information dont l’objectif principal ou l’un des objectifs principaux est de stocker et de donner au public l’accès à une quantité importante d’œuvres protégées par le droit d’auteur ou d’autres objets protégés qui ont été téléversés par ses utilisateurs, qu’il organise et promeut à des fins lucratives ». Indépendamment du caractère ouvert des termes employés, il en ressort clairement que cet article 17 concerne les « grands » prestataires de services de partage, réputés liés au « Value Gap » (33), et dont cette définition vise, à l’évidence, à refléter le fonctionnement (34).

27.      Deuxièmement, l’article 17 de la directive 2019/790, énonce, à son paragraphe 1, premier alinéa, qu’un fournisseur de services de partage « effectue un acte de communication au public ou un acte de mise à la disposition du public aux fins de la présente directive lorsqu’il donne au public l’accès à des œuvres protégées par le droit d’auteur ou à d’autres objets protégés qui ont été téléversés par ses utilisateurs ». Dès lors, comme le précise le second alinéa de ce paragraphe, ces fournisseurs doivent, en principe, obtenir une autorisation des titulaires de droits, par exemple en concluant un accord de licence, concernant l’utilisation, sur leurs services, de contenus protégés mis en ligne par les utilisateurs (35). Le législateur de l’Union a, ainsi, tranché ex lege la controverse évoquée au point 17 des présentes conclusions en faveur de ces titulaires (36).

28.      Cette obligation est en relation directe avec l’objectif général poursuivi à l’article 17 de la directive 2019/790, à savoir « réaliser un marché performant et équitable pour le droit d’auteur » (37), en encourageant le développement du « marché de l’octroi de licences entre les titulaires de droits et les fournisseurs de services de partage ». Il s’agit de renforcer la position de ces titulaires lors de la négociation (ou de la renégociation) d’accords de licence avec ces fournisseurs, afin d’assurer que ces accords soient « équitables » et maintiennent un « équilibre raisonnable entre les deux parties » (38) – et, ce faisant, de remédier au « Value Gap ». La position de négociation desdits titulaires est d’autant plus renforcée que, en principe, ils ne sont pas, pour leur part, tenus de conclure de tels accords avec ces mêmes fournisseurs (39).

29.      Troisièmement, l’article 17 de la directive 2019/790 précise, à son paragraphe 3, que lorsqu’un fournisseur de services de partage procède à un acte de « communication au public » ou de « mise à la disposition du public », dans les conditions fixées au paragraphe 1 de cet article, l’exonération de responsabilité prévue à l’article 14 de la directive 2000/31 ne s’applique pas (40).

30.      Quatrièmement, le paragraphe 4 de cet article 17 précise que, lorsque les fournisseurs de services de partage n’ont pas obtenu d’autorisation des titulaires de droits, ils sont responsables des actes « non autorisés » (41) de communication au public réalisés par le truchement de leur services. Il s’agit là d’une conséquence logique de ce qui précède : puisque ces fournisseurs sont désormais réputés réaliser des actes de « communication au public » lorsqu’ils « donnent accès » aux œuvres et autres objets protégés téléversés par les utilisateurs de leurs services, ils supportent une responsabilité directe (ou « primaire ») en cas de « communication » illicite.

31.      En principe, la responsabilité directe pesant sur la personne qui réalise un acte illicite de « communication au public » est une responsabilité objective (42). Les fournisseurs de services de partage devraient donc être automatiquement responsables à chaque fois qu’une œuvre ou un objet protégé est illégalement mis en ligne sur leurs services. À ce titre, ils pourraient être notamment condamnés à verser aux titulaires de droits concernés des dommages-intérêts potentiellement conséquents (43).

32.      Néanmoins, puisque, d’une part, ce sont les utilisateurs des services de partage qui mettent en ligne les contenus qui s’y trouvent, sans que leurs fournisseurs opèrent une sélection préalable à cet égard (44), et que, d’autre part, ces fournisseurs ne pourront probablement pas obtenir d’autorisation de l’ensemble des titulaires de droits pour la totalité des œuvres et autres objets protégés, actuels et futurs, qui pourraient ainsi y être téléversés (45), une telle responsabilité objective aurait contraint lesdits fournisseurs à changer complètement de modèle économique – et, en cela, à abandonner le modèle même du « Web 2.0 » interactif.

33.      Dès lors, le législateur de l’Union a estimé qu’il convenait de prévoir, pour ces mêmes fournisseurs, un mécanisme de responsabilité spécifique (46). Conformément à l’article 17, paragraphe 4, de la directive 2019/790, ceux-ci peuvent, en cas de « communication au public » illicite réalisée par le truchement de leurs services, s’exonérer de toute responsabilité en démontrant que :

« a)      ils ont fourni leurs meilleurs efforts pour obtenir une autorisation ; et

b)      ils ont fourni leurs meilleurs efforts, conformément aux normes élevées du secteur en matière de diligence professionnelle, pour garantir l’indisponibilité d’œuvres et autres objets protégés spécifiques pour lesquels les titulaires de droits ont fourni aux fournisseurs de services les informations pertinentes et nécessaires ; et en tout état de cause

c)      ils ont agi promptement, dès réception d’une notification suffisamment motivée de la part des titulaires de droits, pour bloquer l’accès aux œuvres et autres objets protégés faisant l’objet de la notification ou pour les retirer de leurs sites Internet, et ont fourni leurs meilleurs efforts pour empêcher qu’ils soient téléversés dans le futur, conformément au point b) ».

34.      Deux de ces conditions cumulatives sont au cœur du présent recours. Les autres paragraphes de l’article 17 de la directive 2019/790 seront présentés au fur et à mesure de l’examen de ce recours (47).

IV.    La procédure devant la Cour et les conclusions des parties

35.      Par requête déposée au greffe de la Cour le 24 mai 2019, la République de Pologne a introduit le présent recours.

36.      La République de Pologne conclut à ce qu’il plaise à la Cour :

–        d’annuler l’article 17, paragraphe 4, sous b) et sous c), in fine, c’est-à-dire en tant qu’il concerne le libellé « et ont fourni leurs meilleurs efforts pour empêcher qu’ils soient téléversés dans le futur, conformément au point b) », de la directive 2019/790 ;

–        à titre subsidiaire, dans l’hypothèse où la Cour considérerait que les dispositions attaquées ne peuvent être séparées du reste de l’article 17 de cette directive sans en modifier la substance, d’annuler cet article dans son intégralité ;

–        de condamner le Parlement et le Conseil aux dépens.

37.      Le Parlement demande à la Cour :

–        de rejeter le recours comme étant non fondé ;

–        de condamner la République de Pologne aux dépens.

38.      Le Conseil demande qu’il plaise à la Cour :

–        de rejeter les conclusions principales comme étant irrecevables ;

–        à titre subsidiaire, de rejeter le recours comme étant non fondé dans son intégralité ;

–        de condamner la République de Pologne aux dépens.

39.      Par décision du président de la Cour, en date du 17 octobre 2019, le Royaume d’Espagne, la République française, la République portugaise et la Commission européenne ont été admis à intervenir au soutien des conclusions du Parlement et du Conseil. Des mémoires en intervention ont été déposés par l’ensemble de ces intervenants, à l’exception de la République portugaise.

40.      Les parties et les intervenants, à l’exception du gouvernement portugais, ont été représentés lors de l’audience de plaidoirie qui s’est tenue le 10 novembre 2020.

V.      Analyse

41.      Au soutien de son recours, la République de Pologne invoque un moyen unique, tiré de la violation du droit à la liberté d’expression et d’information, garanti à l’article 11, paragraphe 1, de la Charte (48). Avant d’examiner ce moyen au fond (section B), je me pencherai brièvement sur la recevabilité de la requête (section A).

A.      Sur la recevabilité

42.      Le Parlement, le Conseil, le gouvernement français et la Commission font valoir que les conclusions principales de la requête, en ce qu’elles visent à obtenir l’annulation des seuls points b) et c), in fine, du paragraphe 4 de l’article 17 de la directive 2019/790, sont irrecevables. Je suis également de cet avis.

43.      En effet, conformément à une jurisprudence constante de la Cour, l’annulation partielle d’un acte de l’Union n’est possible que dans la mesure où les éléments dont l’annulation est demandée sont détachables du reste de cet acte. Il n’est pas satisfait à cette exigence lorsqu’une telle annulation partielle aurait pour effet d’en modifier la substance (49).

44.      Or, l’annulation des seuls points b) et c), in fine, de son paragraphe 4 modifierait, à l’évidence, la substance de l’article 17 de la directive 2019/790. Comme le font valoir le Parlement, le Conseil, le gouvernement français et la Commission, les différentes dispositions de cet article 17 constituent, dans leur ensemble, un régime « complexe » de responsabilité, traduisant l’équilibre souhaité par le législateur de l’Union entre les droits et intérêts des fournisseurs de services de partage, des utilisateurs de leurs services et des titulaires de droits. L’annulation des seules dispositions attaquées aurait pour conséquence de substituer, à ce régime de responsabilité, un régime tout à la fois sensiblement différent et nettement plus favorable à ces fournisseurs. En d’autres termes, procéder à une telle annulation partielle reviendrait, pour la Cour, à réviser ce même article 17, ce qu’elle ne peut faire dans le cadre d’une procédure en annulation au titre de l’article 263 TFUE.

45.      En revanche, il est constant entre les parties que les conclusions formulées à titre subsidiaire par la requérante, par lesquelles elle demande l’annulation de l’article 17 de la directive 2019/790 dans son intégralité, sont recevables. En effet, aussi important que soit cet article, son annulation ne modifierait pas la substance de cette directive. Les nombreux articles de celle-ci ont des objets divers et sont répartis en différents titres et chapitres. L’article 17 de ladite directive est, en cela, détachable de ses autres articles, qui pourraient tout à fait subsister en cas d’annulation du premier (50).

B.      Sur le fond

46.      Le moyen unique invoqué par la République de Pologne peut être résumé en quelques mots. En substance, celle-ci fait valoir que, conformément à l’article 17, paragraphe 4, sous b) et sous c), in fine, de la directive 2019/790, les fournisseurs de services de partage sont tenus, afin d’être exonérés de toute responsabilité en cas de « communication au public » illicite d’œuvres ou d’autres objets protégés sur leurs services, procéder à une surveillance préventive des contenus que les utilisateurs souhaitent mettre en ligne. Ils doivent, pour ce faire, utiliser des outils informatiques permettant le filtrage automatique desdits contenus. Or, cette surveillance préventive constituerait une limitation dans l’exercice du droit à la liberté d’expression, garanti à l’article 11 de la Charte. Cette limitation ne serait pas compatible avec cet instrument dès lors qu’elle porterait atteinte au « contenu essentiel » de ce droit fondamental ou, à tout le moins, qu’elle ne respecterait pas le principe de proportionnalité.

47.      En défense, le Parlement et le Conseil, soutenus par les gouvernements espagnol et français ainsi que par la Commission, contestent chacun de ces points. Je les examinerai donc tour à tour dans les sections qui suivent. Je me pencherai, d’abord, sur la portée des dispositions attaquées (section 1). Je traiterai, ensuite, la question de la limitation dans l’exercice du droit à la liberté d’expression et d’information (section 2) et, enfin, celle de la compatibilité de cette limitation avec la Charte (section 3).

1.      Sur la portée des dispositions attaquées

48.      Afin de bien saisir la portée des conditions d’exonération de responsabilité prévues à l’article 17, paragraphe 4, sous b) et sous c), in fine, de la directive 2019/790, il est utile d’avoir à l’esprit, en tant que point de comparaison, celles figurant à l’article 14 de la directive 2000/31. En substance, en vertu de cet article, un prestataire est exonéré de toute responsabilité susceptible de résulter d’une information illicite qu’il stocke à la demande d’un utilisateur de son service pour autant que, premièrement, il n’en ait pas connaissance ou que, secondement, le cas échéant, il ait promptement retiré cette information ou en ait bloqué l’accès. En pratique, il n’est pas attendu d’un tel prestataire qu’il surveille les informations présentes sur ses serveurs et qu’il recherche, de manière active, celles illicites qui s’y trouvent (51). En revanche, lorsque l’existence et la localisation de pareille information illicite est portée à sa connaissance, en règle générale par le truchement d’une notification envoyée par un tiers, ce prestataire doit réagir en retirant l’information en question ou en bloquant l’accès à celle-ci – suivant un système de « notification et retrait » (notice and take down) (52).

49.      Par contraste, comme le fait valoir la requérante, pour satisfaire aux conditions prévues par les dispositions attaquées, les fournisseurs de services de partage doivent effectuer une surveillance préventive des informations mises en ligne par les utilisateurs de ces services [section a)]. Or, pour effectuer une telle surveillance, ces fournisseurs devront, dans bon nombre de situations, utiliser des outils informatiques permettant le filtrage automatique desdits contenus [section b)].

a)      Une surveillance préventive des contenus mis en ligne par les utilisateurs…

50.      En premier lieu, je rappelle que, d’une part, conformément à l’article 17, paragraphe 4, sous b) de la directive 2019/790, les fournisseurs de services de partage doivent fournir leurs « meilleurs efforts, conformément aux normes élevées du secteur en matière de diligence professionnelle » pour « garantir l’indisponibilité » d’œuvres et autres objets protégés spécifiques pour lesquels les titulaires de droits ont fourni aux fournisseurs de services les informations pertinentes et nécessaires.

51.      D’autre part, conformément au point c) de ce paragraphe, lorsqu’ils reçoivent une notification suffisamment motivée de la part des titulaires de droits, relative à la présence d’œuvres ou d’autres objets protégés sur leurs services, ces mêmes fournisseurs doivent non seulement agir promptement pour bloquer l’accès à ces objets ou pour les retirer de leurs sites Internet (53), mais également fournir leurs « meilleurs efforts » pour « empêcher qu’ils soient téléversés dans le futur » – suivant, cette fois, une logique de « notification et blocage permanent » (notice and stay down).

52.      En somme, les dispositions attaquées font peser sur les fournisseurs de services de partage des obligations de diligence – ou, dit autrement, des obligations de moyens (54) – en matière de surveillance de leurs services. En vue de « garantir l’indisponibilité » des œuvres et des autres objets protégés identifiés par les titulaires de droits et d’« empêcher qu’ils soient téléversés dans le futur », ces fournisseurs doivent prendre « toutes les mesures qu’un opérateur diligent prendrait » (55) pour détecter et bloquer ou retirer, de manière active, au sein de la masse des contenus que les utilisateurs mettent en ligne, ceux reproduisant les objets en question (56).

53.      Cette interprétation est confirmée par l’objectif poursuivi à l’article 17 de la directive 2019/790. En effet, sous l’empire de l’article 14 de la directive 2000/31, les titulaires de droits devaient surveiller les services de partage et porter à la connaissance de leurs fournisseurs, par le truchement de notifications, les contenus contrefaisants qui s’y trouvaient afin que ces derniers les retirent. Or, comme l’a rappelé le Conseil, le législateur de l’Union a considéré, lors de l’adoption dudit article 17, qu’un tel système faisait peser une charge trop importante sur les titulaires de droits et ne leur permettait pas de contrôler efficacement l’utilisation de leurs œuvres et autres objets protégés sur ces services (57). En particulier, les contenus retirés étaient souvent remis en ligne peu de temps après, ce qui contraignait ces derniers à multiplier les notifications (58). Afin de remédier au problème, les dispositions attaquées transfèrent à ces mêmes fournisseurs la charge de surveiller leurs services (59).

54.      En second lieu, comme le fait valoir la République de Pologne, en vue de remplir les objectifs visés aux dispositions attaquées, les fournisseurs de services de partage doivent tâcher de prévenir – ex ante – la mise en ligne des contenus contrefaisants, et non plus simplement de retirer – ex post – de tels contenus.

55.      À cet égard, il ressort du considérant 66 de la directive 2019/790 que, conformément à l’article 17, paragraphe 4, sous b), de cette directive, les fournisseurs de services de partage doivent tâcher d’« éviter » que les œuvres et autres objets protégés identifiés par les titulaires de droits « deviennent disponibles » sur leurs services. Le point c) de ce paragraphe est encore plus explicite quant à la nature des mesures attendues, puisqu’il indique que ces fournisseurs doivent veiller à « empêcher » que les œuvres ou objets protégés ayant donné lieu à une notification des titulaires de droits « soient téléversés » dans le futur. L’incise « conformément au point b) » souligne, en outre, que la même chose est attendue desdits fournisseurs à ces deux points : ils doivent tâcher de prévenir la mise en ligne – ou la remise en ligne, dans le cadre du « stay-down » – de certains contenus illicites sur leurs services.

56.      Cette interprétation est, là encore, confirmée par l’objectif, poursuivi à l’article 17 de la directive 2019/790, consistant à permettre aux titulaires de droits de contrôler plus aisément l’utilisation de leurs œuvres sur les services de partage. Comme l’a fait valoir le Conseil, cette disposition vise à réaffirmer, dans l’environnement numérique, le caractère exclusif du droit de « communication au public ». Les obligations de diligence imposées aux fournisseurs de services de partage par les dispositions attaquées tendent à assurer que ces titulaires puissent effectivement « s’interposer entre d’éventuels utilisateurs de leur œuvre et la communication au public que ces utilisateurs pourraient envisager d’effectuer » (60) sur ces services. Ainsi que l’ont souligné le Parlement et le Conseil, les fournisseurs doivent donc tâcher d’intervenir préalablement à la mise en ligne des contenus, c’est-à-dire avant que les œuvres ou objets protégés qu’ils sont susceptibles de reproduire soient effectivement « communiqués au public » en violation de ce droit exclusif.

b)      qui nécessitera, dans bon nombre de situations, lutilisation doutils de filtrage

57.      À ce stade des présentes conclusions, il me semble utile d’expliquer qu’un certain nombre d’outils informatiques permettent de détecter automatiquement la mise en ligne ou la présence, sur un serveur, d’informations données. En particulier, il existe, à cet effet, des outils de reconnaissance automatique de contenu (Automatic Content Recognition, ou « ACR »), reposant sur différentes techniques, à savoir – en allant de la plus simple à la plus complexe – le « hachage numérique » (hashing), le « marquage numérique » (watermarking) et l’« empreinte numérique » (fingerprinting) (61).

58.      Or, depuis la seconde moitié des années 2000, de tels outils, utilisant tout particulièrement cette dernière technique (62), ont été mis en place, de manière volontaire, par certains fournisseurs de services de partage, et ce notamment (63) afin de rechercher activement les contenus contrefaisants sur leurs services (64). Les outils de reconnaissance par « empreinte numérique » peuvent, en effet, filtrer automatiquement les œuvres et autres objets protégés des titulaires de droits parmi les contenus téléversés sur lesdits services, en comparant ces contenus, au moment de leur mise en ligne ou une fois celle-ci effectuée, avec des informations de référence fournies par lesdits titulaires (65). Lorsque cette comparaison établit une correspondance (« match »), lesdits outils donnent en général aux titulaires de droits concernés le choix de décider, manuellement ou automatiquement, de bloquer le contenu en cause, d’autoriser sa mise en ligne et de suivre sa popularité au moyen des statistiques d’audience, ou encore de le « monétiser » en y insérant des publicités (66).

59.      La proposition de directive embrassait ces développements technologiques. L’analyse d’impact soulignait l’efficacité des outils de reconnaissance par « empreinte numérique » en matière de contrefaçon et leur disponibilité accrue sur le marché.  Ainsi, cette proposition visait, je le rappelle (67), à rendre obligatoire la mise en place de tels outils par les fournisseurs de services de partage, le but étant de contraindre ceux qui ne l’avaient pas encore fait à se « mettre à niveau » et d’obliger les autres à donner aux titulaires de droits un accès transparent à leurs outils de reconnaissance (68).

60.      Comme n’ont pas manqué de le souligner le Parlement, le Conseil et le gouvernement espagnol, la version finale de la directive 2019/790 ne contient plus de références expresses aux outils de reconnaissance automatique de contenu. Les points b) et c) du paragraphe 4 de l’article 17 de cette directive sont rédigés en des termes généraux. Ces dispositions n’imposent pas, formellement, aux fournisseurs de services de partage l’adoption de mesures ou de techniques spécifiques en vue d’atteindre les objectifs qu’elles visent (69).

61.      À en croire les parties défenderesses et les intervenantes, les dispositions attaquées n’obligeraient donc pas ces fournisseurs à recourir à de tels outils. Ceux-ci disposeraient d’une « marge de manœuvre » quant aux mesures et techniques à mettre en œuvre en vue d’atteindre les objectifs visés à ces dispositions. Dans ce cadre, lesdits fournisseurs pourraient « choisir » d’utiliser pareils outils – ou de continuer à le faire, pour ceux qui le font déjà –, voire développer des « solutions innovantes » (70). En tout état de cause, conformément à l’article 17, paragraphe 5, de la directive 2019/790, les mesures exigées de ces mêmes fournisseurs devraient être examinées au cas par cas, à la lumière du principe de proportionnalité.

62.      Cela étant, ainsi que le soutient la République de Pologne, il me semble que les dispositions attaquées obligent bien les fournisseurs de services de partage, dans bon nombre de situations, à utiliser ces outils de reconnaissance de contenu (71). Selon moi, le législateur de l’Union a simplement changé de méthode entre la proposition de directive et son adoption en tant que directive 2019/790. Plutôt que de prévoir directement une obligation de mettre en place de tels outils, il les a imposés indirectement, par le truchement des conditions d’exonération de responsabilité prévues à ces dispositions.

63.      En effet, d’une part, comme la requérante l’a souligné à bon droit, il convient de garder à l’esprit le contexte factuel dans lequel s’inscrivent les dispositions attaquées. L’article 17 de la directive 2019/790 concerne les fournisseurs de services qui stockent et donnent au public l’accès à une « quantité importante d’œuvres protégées par le droit d’auteur ou d’autres objets protégés ». Autrement dit, il s’agit d’opérateurs gérant un volume important, voire gigantesque, de contenus. En outre, ces services de partage sont fournis de manière ininterrompue et ouverts à un nombre considérable d’utilisateurs, des quantités conséquentes de nouveaux contenus pouvant ainsi être mises en ligne à tout instant.

64.      Dans un tel contexte, il me semble évident que, comme le fait valoir la requérante, les fournisseurs de services de partage ne pourraient pas faire vérifier par leurs préposés la totalité ou même la majeure partie des contenus mis en ligne (72) – ce que le Parlement reconnaît au demeurant. Ainsi, je perçois difficilement par quels moyens, autres que l’utilisation d’un outil de reconnaissance automatique leur permettant de filtrer les contenus téléversés sur leurs services, ces fournisseurs pourraient raisonnablement « garantir l’indisponibilité » des œuvres et objets protégés identifiés par les titulaires de droits et « empêcher qu’ils soient téléversés dans le futur » sur leurs services, conformément aux objectifs visés aux dispositions attaquées (73) – et la référence du Parlement et du Conseil à d’éventuelles « solutions innovantes » n’apporte, à cet égard, qu’une aide très relative (74). Du reste, les parties défenderesses et les intervenants ont admis à demi-mots, lors de l’audience, en réponse aux questions de la Cour, que ces outils seront, bien souvent, de facto, indispensables à cet égard (75).

65.      D’autre part, je rappelle que les fournisseurs de services de partage doivent, pour satisfaire aux obligations de diligence qui leur sont imposées, conformément au libellé de l’article 17, paragraphe 4, sous b), de la directive 2019/790, prendre des mesures répondant aux « normes élevées du secteur en matière de diligence professionnelle ». Comme le précise le considérant 66, deuxième alinéa, de cette directive, il faut tenir compte, à cet égard, des « meilleures pratiques du secteur » et de « l’état de l’art ».

66.      Or, comme je l’ai expliqué au point 58 des présentes conclusions, les outils de reconnaissance par « empreinte numérique » sont d’ores et déjà utilisés par différents fournisseurs de services de partage, concernant plusieurs types de contenus (76). Les autres fournisseurs acceptant de tels contenus sur leurs services semblent donc tenus, afin de satisfaire aux obligations de diligence résultant des dispositions attaquées, de se conformer aux « meilleures pratiques du secteur » et à « l’état de l’art » en mettant en place de tels outils pour filtrer ces catégories de contenus.

67.      Certes, ainsi que l’ont souligné les parties défenderesses et les intervenants, conformément à l’article 17, paragraphe 5, de la directive 2019/790, les mesures attendues des fournisseurs de services de partage doivent, dans chaque cas, être conformes au principe de proportionnalité. Doivent notamment être pris en considération à cet égard, premièrement, « le type, l’audience et la taille du service, ainsi que le type d’œuvres ou autres objets protégés téléversés par les utilisateurs du service » et, secondement, « la disponibilité de moyens adaptés et efficaces et leur coût pour les fournisseurs de services » (77). Dans ce cadre, il ne saurait être exclu que, dans certains cas particuliers, il soit contraire à ce principe d’exiger de certains fournisseurs qu’ils utilisent un outil de reconnaissance de contenu. Il semble également que, en l’état actuel de la technologie, ces outils ne sont ni adaptés ni efficaces s’agissant de certains types particuliers d’œuvres et d’objets protégés (78).

68.      Toutefois, ces cas particuliers mis à part, il est clair, à mes yeux, que, dans toutes les situations dans lesquelles différents outils adéquats et efficaces sont disponibles sur le marché et ne sont pas déraisonnablement couteux, les fournisseurs de services de partage sont a priori tenus de les mettre en place afin de démontrer qu’ils ont fourni leurs « meilleurs efforts » pour prévenir la mise en ligne de contenus illicites et, ainsi, satisfaire aux dispositions attaquées (79). Le cas échéant, ils peuvent, conformément au principe de proportionnalité, choisir parmi les outils disponibles ceux étant les mieux adaptés à leurs situations et aux ressources dont ils disposent (80) – voire, pour les plus fortunés d’entre eux, développer un tel outil en interne.

69.      En résumé, afin de démontrer, conformément aux dispositions attaquées, qu’ils ont fourni leurs « meilleurs efforts, conformément aux normes élevées du secteur en matière de diligence professionnelle » pour « garantir l’indisponibilité » des œuvres et objets protégés identifiés par les titulaires de droits et « empêcher qu’ils [soient] téléversés dans le futur » sur leurs services, les fournisseurs de services de partage doivent, dans bon nombre de cas, mettre en place des outils de reconnaissance automatique de contenu, afin de filtrer les contenus que les utilisateurs mettent en ligne et, le cas échéant, de bloquer certains d’entre eux avant leur téléversement (81).

2.      Sur lexistence dune limitation dans lexercice du droit à la liberté dexpression et dinformation

70.      La portée des dispositions attaquées ayant été clarifiée, il s’agit maintenant d’entamer l’examen de ces dispositions au regard du droit à la liberté d’expression et d’information.

71.      Le droit garanti à l’article 11 de la Charte, qui « comprend la liberté d’opinion et la liberté de recevoir ou de communiquer des informations ou des idées sans qu’il puisse y avoir ingérence d’autorités publiques et sans considération de frontières », correspond à celui prévu à l’article 10 de la convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales, signée à Rome le 4 novembre 1950 (ci-après la « CEDH ») (82). En vertu de l’article 52, paragraphe 3, de la Charte, ces deux droits ont donc le même sens ou, à tout le moins, la même portée. Il s’ensuit que l’article 11 de la Charte doit être interprété à la lumière de l’article 10 de la CEDH et de la jurisprudence de la Cour européenne des droits de l’homme (ci-après la « Cour EDH ») y afférente.

72.      Ce droit fondamental est indéniablement pertinent en l’occurrence. En effet, comme la République de Pologne et la Commission l’ont évoqué dans leurs observations respectives, les services de partage visés à l’article 17 de la directive 2019/790 sont d’une importance particulière pour la liberté de recevoir ou de communiquer des informations ou des idées.

73.      Comme le soutient la requérante, la mise en ligne de contenus sur lesdits services – qu’il s’agisse de vidéos, de photographies, de textes, etc. – relève ainsi de l’exercice du droit à la liberté d’expression et d’information (83). Une telle mise en ligne est également susceptible de concerner d’autres libertés voisines. En particulier, lorsque les contenus en question constituent l’expression artistique des utilisateurs qui les téléversent, leur mise en ligne relève de l’exercice de la liberté des arts, garantie à l’article 13 de la Charte ainsi qu’à l’article 10 de la CEDH (84).

74.      Je précise qu’il en va ainsi indépendamment du point de savoir si ces contenus violent ou non des droits d’auteurs. L’argument contraire avancé par le Parlement procède, selon moi, d’une approximation juridique. En effet, le fait qu’une information soit protégée par les droits d’auteur n’a pas pour effet de l’exclure d’emblée du champ de la liberté d’expression (85). S’il est, en règle générale, justifié de restreindre la diffusion d’une telle information, cela n’est pertinent qu’au stade de l’examen des conditions d’admissibilité de pareille restriction à cette liberté (86).

75.      Or, selon la requérante, les mesures de filtrage que les fournisseurs de services de partage sont contraints de mettre en place pour satisfaire à l’article 17, paragraphe 4, sous b) et sous c), in fine, de la directive 2019/790 constitueraient, par nature, des « mesures préventives » de contrôle des informations des utilisateurs. Ces mesures entraîneraient des « restrictions préalables », au sens de la jurisprudence de la Cour EDH relative à l’article 10 de la CEDH. Les dispositions attaquées emporteraient donc la mise en place, sur les services de partage, d’une « censure générale automatisée de nature préventive » opérée par leurs fournisseurs. Lesdites dispositions caractériseraient en cela une « ingérence », particulièrement grave, du législateur de l’Union dans la liberté d’expression et d’information desdits utilisateurs.

76.      En revanche, les parties défenderesses et les intervenants contestent que les dispositions attaquées emportent une telle « censure » ou une quelconque « ingérence » dans cette liberté. En particulier, selon le Conseil, ces dispositions – ou l’article 17 de la directive 2019/790 de manière générale – n’auraient pas pour objet de restreindre ex ante les informations qui peuvent être diffusées sur ces services. Les utilisateurs demeureraient libres d’y téléverser les contenus qu’ils souhaitent. Simplement, dans toutes les situations où les contenus mis en ligne sont protégés par les droits d’auteur, ces mêmes fournisseurs devraient obtenir une autorisation des titulaires de droits concernés et, à défaut, seraient responsables ex post.

77.      À l’instar de la requérante, j’estime que les dispositions attaquées emportent effectivement une « ingérence » dans la liberté d’expression des utilisateurs des services de partage. Je tiens néanmoins à apporter d’emblée une précision d’ordre terminologique. Le terme « censure » est, certes, polysémique. Cela étant, il ressort clairement des observations de la requérante que celle-ci vise par là l’idée d’un contrôle préalable des informations avant leur diffusion. Dans ce contexte, les développements du Parlement, du Conseil et du gouvernement espagnol selon lesquels le terme « censure » ne serait pas pertinent en l’occurrence, au motif que l’article 17 de la directive 2019/790 n’implique aucun contrôle « politique ou moral » des informations mises en ligne sur les services de partage sont, à mes yeux, hors-sujet. Afin d’éviter toute confusion supplémentaire, je me bornerai à utiliser, dans la présente section, les termes « mesures préventives » et « restrictions préalables ».

78.      Cela étant précisé, l’article 17 de la directive 2019/790 ne prévoit pas simplement, comme le soutient le Conseil, que les fournisseurs de services de partage doivent obtenir une autorisation pour les contenus protégés mis en ligne par les utilisateurs de leurs services et, à défaut, en sont directement responsables. Comme je l’ai expliqué dans la section précédente, les dispositions attaquées prévoient également que lesdits fournisseurs sont exonérés de cette responsabilité lorsqu’ils fournissent leurs « meilleurs efforts » pour prévenir la mise en ligne, par ces utilisateurs, de contenus reproduisant les œuvres et les autres objets protégés identifiés par les titulaires de droits. Ces mêmes fournisseurs sont ainsi amenés à procéder au filtrage et au blocage préventifs des contenus en question.

79.      Or, comme le fait valoir la requérante, le filtrage est, par nature, une « mesure préventive » de contrôle des informations diffusées sur ces services, et les mesures de blocage pouvant en résulter constituent des « restrictions préalables », au sens de la jurisprudence de la Cour EDH afférente à l’article 10 de la CEDH (87) : afin non pas de réprimer, mais de prévenir d’éventuelles atteintes au droit d’auteur, les informations que les utilisateurs entendent mettre en ligne sont contrôlées, et celles considérées comme susceptibles d’emporter une telle atteinte sont restreintes préalablement à leur diffusion (88).

80.      Dans ces situations, contrairement à ce que fait valoir le Conseil, les utilisateurs ne sont donc pas « libres » de mettre en ligne les contenus qu’ils souhaitent sur les services de partage. Les mesures de filtrage et de blocage mises en œuvre par leurs fournisseurs vont restreindre les contenus qu’ils peuvent téléverser. Il en résulte une « ingérence » dans l’exercice de la liberté de communication desdits utilisateurs. Le filtrage et le blocage de contenus avant leur diffusion entraînent, en outre, une « ingérence » dans la liberté du public de recevoir des informations (89).

81.      Le Parlement et le Conseil rétorquent que les fournisseurs de services de partage peuvent, en tant qu’opérateurs privés, librement choisir les informations qu’ils souhaitent voir diffusées sur leurs services et, ainsi, décider de filtrer et de bloquer des contenus. Même à supposer que cela constitue une « ingérence » dans la liberté d’expression des utilisateurs, celle-ci ne serait, en toute hypothèse, pas imputable au législateur de l’Union.

82.      Cet argument amalgame, selon moi, deux situations. Il est vrai que les fournisseurs de services de partage peuvent, dans le cadre de la liberté d’entreprise et de la liberté contractuelle qui leur sont garanties à l’article 16 de la Charte, définir, dans les conditions d’utilisation de leurs services ou encore de « normes de la communauté », une politique en matière de contenus et exercer, de leur propre initiative, une forme d’« autorégulation » en procédant au filtrage et au blocage de contenus qui contreviendraient, selon eux, à ces règles. Dans cette situation, il n’y a pas « ingérence d’autorités publiques », au sens de l’article 10 de la CEDH et de l’article 11 de la Charte dans la liberté d’expression des utilisateurs (90).

83.      Toutefois, en l’occurrence, il n’est pas question, selon moi, de l’« autorégulation » des fournisseurs de services de partage. Indépendamment du point de savoir si l’interdiction de mettre en ligne des contenus contrefaisants figure dans leurs conditions générales d’utilisation ou dans leurs « normes communautaires », le filtrage et le blocage de contenus est réalisé pour satisfaire aux dispositions attaquées (91).

84.      Dès lors, selon moi, l’« ingérence » dans la liberté d’expression des utilisateurs est bien imputable au législateur de l’Union. Il en est, en effet, l’instigateur. Du reste, le Parlement et le Conseil reconnaissent eux-mêmes que les dispositions attaquées visent, en substance, à attribuer aux fournisseurs de services de partage la charge de contrôler les violations du droit d’auteur commises sur ces services. En quelque sorte, le législateur a délégué à ces fournisseurs la tâche de contrôler la bonne application du droit d’auteur dans l’environnement numérique. Or, le législateur ne peut pas tout à la fois opérer une telle délégation et rejeter toute responsabilité sur lesdits fournisseurs pour les ingérences dans les droits fondamentaux des utilisateurs qui en résulte (92).

85.      Ma conviction à cet égard n’est pas ébranlée par l’argument du Conseil selon lequel les dispositions attaquées n’« obligeraient » pas les fournisseurs de services de partage à procéder au filtrage et au blocage des contenus mis en ligne par les utilisateurs de leurs services, au motif que l’article 17, paragraphe 4, de la directive 2019/790 n’imposerait, stricto sensu, aucune « obligation » à ces fournisseurs, mais se bornerait à prévoir un mécanisme d’exonération de responsabilité qu’ils auraient la « possibilité » d’utiliser lorsqu’ils n’ont pas obtenu d’autorisation des titulaires de droits.

86.      En effet, selon moi, pour apprécier la compatibilité de l’article 17 de la directive 2019/790 avec l’article 11 de la Charte, il convient de tenir compte non pas uniquement de ses termes, mais également de ses effets concrets. Or, compte tenu du fait que, d’une part, les fournisseurs de services de partage ne pourront pas obtenir d’autorisation des titulaires de droits pour un certain nombre d’œuvres et d’autres objets protégés (93) tandis que, d’autre part, les utilisateurs pourraient, potentiellement, tout de même mettre en ligne quantité de contenus reproduisant les objets en question, le recours au mécanisme d’exonération prévu à l’article 17, paragraphe 4, de la directive 2019/790 sera, pour ces fournisseurs, non pas une « possibilité », mais une nécessité, sauf à supporter un risque démesuré de responsabilité. Ainsi, dans bon nombre de cas, les conditions d’exonération prévues aux dispositions attaquées constitueront, en pratique, de véritables obligations pour lesdits fournisseurs. Du reste, j’observe que le paragraphe 5 dudit article 17 se réfère lui-même aux « obligations qui [...] incombent [aux fournisseurs de services de partage] en vertu du paragraphe 4 » (souligné par mes soins).

87.      Selon moi, un tel mécanisme de responsabilité/exonération est une technique tout aussi efficace qu’une obligation directe pour contraindre les opérateurs économiques concernés à procéder au filtrage préventif des contenus de leurs utilisateurs. Comme je l’ai indiqué au point 62 des présentes conclusions, le législateur de l’Union a simplement changé de méthode à cet égard. Toutefois, ces différentes méthodes emportent les mêmes effets et doivent, pour cette raison, être considérées de la même manière au regard des droits fondamentaux (94).

3.      Sur la compatibilité de cette limitation avec la Charte

88.      Il ressort de la section qui précède que, comme le fait valoir la République de Pologne, les dispositions attaquées emportent une limitation dans l’exercice du droit à la liberté d’expression, tel que garanti à l’article 11 de la Charte.

89.      Cela étant, la liberté d’expression n’est pas une prérogative absolue. Conformément à l’article 52, paragraphe 1, de la Charte, des limitations à l’exercice de cette liberté sont admissibles à condition que celles-ci, premièrement, soient « prévues par la loi », deuxièmement, respectent le « contenu essentiel » de cette liberté, et, troisièmement, respectent le principe de proportionnalité.

90.      De manière similaire, conformément à l’article 10, paragraphe 2, de la CEDH et de la jurisprudence de la Cour EDH s’y rapportant, une ingérence dans la liberté d’expression est admissible pour autant qu’elle, premièrement, soit « prévue par la loi », deuxièmement, poursuive un ou plusieurs buts légitimes définis audit paragraphe 2 et, troisièmement, soit « nécessaire dans une société démocratique » (95). Si ces conditions diffèrent partiellement, dans leurs formulations, de celles prévues à l’article 52, paragraphe 1, de la Charte, elles doivent, à nouveau, être considérées comme ayant le même sens ou, à tout le moins, la même portée (96).

91.      Dès lors, j’examinerai, dans les sections qui suivent, le respect des trois conditions prévues à l’article 52, paragraphe 1, de la Charte, tout en interprétant celles-ci à la lumière de la jurisprudence pertinente de la Cour EDH. Dans ce cadre, j’exposerai les raisons pour lesquelles la limitation en cause est « prévue par la loi » [section a)], pourquoi elle respecte le « contenu essentiel » du droit à la liberté d’expression [section b)] et pourquoi, pour autant que l’article 17 de la directive 2019/790 soit interprété d’une juste manière, elle respecte le principe de proportionnalité [section c)].

a)      La limitation en cause est « prévue par la loi »

92.      Conformément à une jurisprudence constante de la Cour, la condition selon laquelle toute limitation dans l’exercice des droits fondamentaux doit être « prévue par la loi », au sens de l’article 52, paragraphe 1, de la Charte, lue à la lumière de la jurisprudence de la Cour EDH afférente à la condition équivalente prévue à l’article 10, paragraphe 2, de la CEDH, implique non seulement que cette limitation doit avoir une base légale (« existence de la loi »), mais également que cette base légale doit revêtir certaines qualités d’accessibilité et de prévisibilité (« qualité de la loi ») (97).

93.      En l’occurrence, d’une part, la limitation en cause a manifestement une base légale, puisqu’elle résulte de dispositions adoptées par le législateur de l’Union.

94.      S’agissant, d’autre part, de la « qualité » de cette base légale, je rappelle que, conformément à la jurisprudence de la Cour (98) et à celle de la Cour EDH (99), la base légale emportant une limitation à l’exercice d’un droit fondamental doit être suffisamment accessible et prévisible dans ses effets, c’est-à-dire être énoncée avec assez de clarté et de précision pour permettre aux intéressés, en s’entourant au besoin de conseils éclairés, de régler leur conduite.

95.      Or, j’estime que les dispositions attaquées présentent un degré de clarté et de précision suffisant pour satisfaire à ce standard. Certes, la définition du « fournisseur de services de partage de contenus en ligne » prévue à l’article 2, point 6, de la directive 2019/790 et les dispositions attaquées contiennent plusieurs notions ouvertes – « quantité importante d’œuvres protégées par le droit d’auteur ou d’autres objets protégés » ; « meilleurs efforts » ; « normes élevées du secteur en matière de diligence professionnelle », etc. – générant un degré d’incertitude quant aux opérateurs économiques visés et aux obligations qui leur sont imposées dans chaque situation. Toutefois, selon les explications fournies par le Parlement et le Conseil, le recours à ces notions vise à garantir que ces dispositions puissent s’adapter à différents types d’opérateurs et de situations, ainsi qu’à l’évolution de la pratique et des technologies, et ce afin de résister à l’épreuve du temps. Or, conformément à la jurisprudence de la Cour EDH, le législateur de l’Union peut, sans porter atteinte à l’exigence de « prévisibilité », faire le choix de doter les textes qu’il adopte d’une certaine souplesse plutôt que d’une sécurité juridique absolue (100). En outre, les clarifications apportées dans les présentes conclusions, ainsi que celles que la Cour apportera dans son arrêt à venir et dans de futures décisions, contribueront à préciser ces notions et à éliminer les doutes qui les entourent – ce qui, là encore, satisfait à l’exigence de « prévisibilité » (101).

96.      Cela étant précisé, j’observe que la Cour (102) et la Cour EDH (103) rattachent également à l’exigence de « prévisibilité » le point de savoir si la base légale emportant l’ingérence présente des garanties suffisantes contre le risque d’atteintes arbitraires ou abusives aux droits fondamentaux (conformément au principe de la « prééminence du droit »). Cet aspect est contesté par la requérante en l’occurrence.

97.      Néanmoins, la question de savoir si les dispositions attaquées présentent des garanties suffisantes pour protéger la liberté d’expression des utilisateurs des services de partage contre les mesures de filtrage et de blocage excessives ou arbitraires a également trait au caractère proportionné de la limitation résultant de ces dispositions (104). Dès lors, afin d’éviter les répétitions, je réserve cette question pour l’examen de la condition tenant au respect du principe de proportionnalité (105).

b)      La limitation en cause respecte le « contenu essentiel » du droit à la liberté dexpression

98.      Il convient de rappeler que la condition, énoncée à l’article 52, paragraphe 1, de la Charte, selon laquelle toute limitation de l’exercice des droits et libertés reconnus par cet instrument doit « respecter le contenu essentiel desdits droits et libertés » implique que, lorsqu’une mesure porte atteinte à ce « contenu essentiel », elle ne peut être justifiée. Cette mesure est alors jugée contraire à la Charte et, s’agissant d’un acte de l’Union, doit être annulée ou déclarée invalide, sans qu’il faille examiner la condition tenant au respect du principe de proportionnalité (106).

99.      En effet, le législateur de l’Union peut limiter l’exercice de certains droits fondamentaux dans l’intérêt commun, afin de protéger d’autres droits et intérêts. Il peut le faire, en particulier, afin de protéger un autre droit fondamental. Dans ce cadre, il dispose d’une certaine marge d’appréciation pour mettre en balance et trouver un « juste équilibre » entre les différents droits et intérêts en présence (107). Néanmoins, cette marge d’appréciation connaît une limite absolue. Le « contenu essentiel » d’un droit fondamental constitue un « noyau intouchable », devant rester libre de toute interférence. Partant, aucun objectif, aussi légitime soit-il, ne justifie de porter certaines atteintes – exceptionnellement graves – aux droits fondamentaux. En d’autres termes, la fin ne justifie pas tout moyen.

100. En l’occurrence, selon la République de Pologne, les dispositions attaquées portent atteinte au « contenu essentiel » du droit à la liberté d’expression. En effet, la surveillance préventive devant, en application de ces dispositions, être effectuée par les fournisseurs de services de partage sur les contenus mis en ligne par leurs utilisateurs remettrait en cause ce droit en tant que tel, au motif qu’elle implique l’ingérence dans ces contenus, et leur éventuel blocage, avant même leur diffusion.

101. À l’instar des parties défenderesses et des intervenants, je ne suis pas de cet avis.

102. Certes, les mesures préventives de contrôle de l’information sont généralement considérées comme des ingérences particulièrement sérieuses dans la liberté d’expression (108), en raison des excès qu’elles peuvent entraîner. Ces mesures préventives sont, en principe, réprouvées dans une société démocratique, au motif que, en restreignant certaines informations avant même leur diffusion, elles empêchent tout débat public sur le contenu, privant ainsi la liberté d’expression de sa fonction même de vecteur du pluralisme (109). Pour ces raisons, comme le souligne la requérante, de nombreux États membres interdisent le contrôle préalable généralisé de l’information dans leurs constitutions respectives.

103. Ces considérations sont pleinement pertinentes en ce qui concerne Internet. Comme la requérante le fait valoir, ce réseau revêt une importance particulière pour la liberté de recevoir ou de communiquer des informations ou des idées (110). Il en va ainsi, plus spécifiquement, des grandes plateformes et réseaux sociaux qui, en permettant à tout un chacun de publier en ligne les contenus qu’il souhaite et au public d’y accéder, constituent des outils « sans précédent » pour l’exercice de cette liberté (111). Ces plateformes participent, en cela, à une forme de « démocratisation » de la production d’information et, bien que gérées par des exploitants privés, sont, de fait, devenues des infrastructures essentielles pour l’expression en ligne (112). En l’état actuel des moyens de communication, le droit à la liberté d’expression implique donc, tout particulièrement, la liberté d’accéder à ces plateformes et de s’y exprimer, en principe, sans ingérence d’autorités publiques (113).

104. Or, si lesdites autorités imposaient, directement ou indirectement (114), aux prestataires intermédiaires qui contrôlent ces infrastructures d’expression l’obligation de surveiller préventivement, de manière générale, les contenus des utilisateurs de leurs services à la recherche de tout type d’informations illicites, voire simplement indésirables, cette liberté de communication serait remise en cause en tant que telle. Le « contenu essentiel » du droit à la liberté d’expression, tel que prévu à l’article 11 de la Charte, serait alors, selon moi, touché.

105. Dans ce contexte, l’article 15 de la directive 2000/31 est, à mes yeux, d’une importance fondamentale. En prévoyant que les prestataires intermédiaires ne sauraient se voir imposer une « obligation générale de surveiller les informations qu’ils transmettent ou stockent », cette disposition empêche que l’information en ligne soit soumise à une surveillance préventive généralisée, déléguée à ces intermédiaires. Elle garantit, en cela, qu’Internet reste un espace libre et ouvert (115).

106. Pour cette raison, j’ai tendance à considérer l’interdiction prévue à cet article 15 comme un principe général du droit régissant l’internet, en ce qu’il concrétise, dans l’environnement numérique, la liberté fondamentale de communication (116). J’observe d’ailleurs que la Cour a d’ores et déjà rapproché, dans sa jurisprudence, le respect de cette liberté et cette interdiction (117). L’une ne va, en effet, pas sans l’autre. Il s’ensuit, à mon avis, que ladite interdiction dépasse le cadre dudit article 15 et s’impose non seulement aux États membres, mais également au législateur de l’Union.

107. Pour autant, contrairement à ce que fait valoir la requérante, le droit fondamental à la liberté d’expression, tel que concrétisé par l’interdiction des « obligations générales de surveillance », ne s’oppose pas à tous les types d’obligation de surveillance.

108. En effet, comme le rappelle la Commission, la Cour a, dans sa jurisprudence relative aux injonctions pouvant être prononcées à l’encontre des intermédiaires en ligne (118), admis qu’il soit possible d’enjoindre un tel intermédiaire de « prévenir » certaines infractions, en exerçant une forme de surveillance ciblée de son service (119). Elle a, ainsi, distingué les obligations de surveillance « générales » de celles applicables dans des cas « spécifiques » (120). De manière similaire, la Cour EDH ne considère pas les mesures préventives de contrôle de l’information, y compris les obligations de blocage, comme incompatibles en soi avec l’article 10 de la CEDH, pour autant qu’elles s’inscrivent dans un cadre spécifique (121). Cette juridiction a même admis, dans son arrêt Delfi AS. c. Estonie, qu’il puisse être attendu de certains intermédiaires qu’ils surveillent activement leurs services à la recherche de certains types d’informations illicites (122).

109. La requérante rétorque que, précisément, l’obligation de surveillance imposée aux fournisseurs de services de partage en application des dispositions attaquées est « générale ». En effet, afin de « garantir l’indisponibilité » des œuvres et autres objets protégés identifiés par les titulaires de droits et « d’empêcher qu’ils soient téléversés dans le futur » sur leurs services, ces fournisseurs doivent, en pratique, filtrer l’intégralité des contenus téléversés par l’ensemble des utilisateurs.

110. Cependant, à l’instar des parties défenderesses et des intervenants, j’estime que ces dispositions imposent, en réalité, une obligation « spécifique » de surveillance (123). Je dois néanmoins reconnaître que la jurisprudence de la Cour (124) a connu une évolution récente quant au critère distinguant le « général » du « spécifique ».

111. Initialement, la Cour semblait s’attacher à la quantité d’informations à inspecter. Dans l’arrêt L’Oréal e.a. (125), la Cour a jugé que l’exploitant d’une place de marché en ligne ne pouvait être obligé de procéder à « une surveillance active de l’ensemble des données de chacun de ses clients afin de prévenir toute atteinte future à des droits de propriété intellectuelle ». Dans l’arrêt Scarlet Extended, elle a estimé qu’un fournisseur d’accès Internet ne pouvait être contraint, par le truchement d’une injonction, de mettre en place un système de filtrage s’appliquant à « toutes les communications électroniques transitant par ses services » et donc « indistinctement à l’égard de toute sa clientèle », et ce afin « d’identifier sur le réseau de ce fournisseur la circulation de fichiers électroniques contenant une œuvre musicale, cinématographique ou audiovisuelle sur laquelle le demandeur prétend détenir des droits de propriété intellectuelle, en vue de bloquer le transfert de fichiers dont l’échange porte atteinte au droit d’auteur » (126). Dans l’arrêt SABAM (127), la Cour a retenu le même raisonnement s’agissant de l’obligation, pour l’exploitant d’une plateforme de réseau social, de mettre en place un système de filtrage similaire. Enfin, dans l’arrêt Mc Fadden (128), elle a considéré que l’exploitant d’un réseau local sans fil ne saurait se voir imposer l’obligation de surveiller « l’ensemble des informations transmises » au moyen de ce réseau, même s’il s’agissait de bloquer les copies d’une unique œuvre musicale  identifiée par le titulaire des droits (129).

112. Désormais, la Cour semble s’attacher à la précision de ce qui est recherché. À cet égard, dans l’arrêt Glawischnig-Piesczek (130), qui concernait cette fois le domaine de la diffamation, la Cour a considéré que l’obligation, pour l’exploitant d’un réseau social, de surveiller l’ensemble des informations mises en ligne sur ce réseau (131) devait être considérée comme « spécifique » au motif qu’il s’agissait de rechercher et de bloquer une information diffamante « précise » (132), que le prestataire n’était pas obligé de procéder à une « appréciation autonome » de la licéité des informations filtrées et que, au contraire, il pouvait « recourir à des techniques et à des moyens de recherche automatisés » (133).

113. Cette évolution de la jurisprudence de la Cour (134) est, à mes yeux, justifiée. Si j’en préciserai les limites par la suite (135), j’indique ici que, considérer qu’une obligation de surveillance est « générale » dès lors qu’elle contraint, de facto, un prestataire intermédiaire à effectuer un filtrage, à l’aide d’outils informatiques, de l’ensemble des informations mises en ligne par les utilisateurs de son service, quand bien même il s’agirait de rechercher des infractions spécifiques, reviendrait, de manière regrettable, à ignorer les développements technologiques rendant possible un tel filtrage et à priver le législateur de l’Union d’un moyen utile pour lutter contre certains types de contenus illicites.

114. En l’occurrence,  pour atteindre les objectifs visés aux dispositions attaquées, les fournisseurs de services de partage doivent, certes, surveiller l’ensemble des contenus que leurs utilisateurs mettent en ligne. Toutefois, il s’agit de rechercher, parmi ces contenus, les « œuvres ou autres objets protégés spécifiques » pour lesquels les titulaires de droits leurs auront préalablement communiqué les « informations pertinentes et nécessaires » [article 17, paragraphe 4, sous b), de la directive 2019/790] ou une « notification suffisamment motivée » [point c) dudit paragraphe 4]. J’expliquerai plus précisément quels contenus devront être bloqués dans la suite des présentes conclusions (136). Néanmoins, à ce stade de l’analyse, ces éléments suffisent, selon moi, pour démontrer que ces dispositions prévoient bien, indirectement, une obligation de surveillance « spécifique » et pour exclure une atteinte au « contenu essentiel » du droit à la liberté d’expression (137).

115. Pour finir, je précise que, si le législateur de l’Union ne peut pas déléguer aux intermédiaires en ligne la charge de faire une surveillance préventive généralisée des informations partagées ou transmises grâce à leurs services, il peut, à mon sens, sans porter atteinte au « contenu essentiel » de la liberté d’expression, faire le choix d’imposer certaines mesures de surveillance active, concernant certaines informations illicites spécifiques, à certains intermédiaires en ligne. J’observe d’ailleurs que l’article 17 de la directive 2019/790 s’inscrit, à cet égard, dans la lignée d’une série de communications et recommandations de la Commission (138) ainsi que de nouvelles réglementations (139) qui tendent, en ce sens, à faire contribuer certains intermédiaires – en particulier les grandes « plateformes » – à la lutte contre certains types de contenus illicites. Néanmoins, dans chaque cas, le respect du principe de proportionnalité devra être assuré. Une telle forme de délégation du contrôle de la légalité en ligne (140) à certains intermédiaires s’accompagne, notamment, de risques pour la liberté d’expression des utilisateurs de leurs services et ne saurait donc se faire sans des garanties suffisantes pour ces derniers (141).

c)      La limitation en cause respecte le principe de proportionnalité

116. Il reste maintenant à examiner la condition tenant au respect du principe de proportionnalité, qui se subdivise, selon les termes de l’article 52, paragraphe 1, de la Charte, en deux sous‑conditions : la limitation en cause doit être, premièrement, « nécessaire » et, deuxièmement, « répondre effectivement à un objectif d’intérêt général reconnu par l’Union ou au besoin de protection des droits et libertés d’autrui ».

117. Le respect de la seconde sous-condition ne fait pas débat entre les parties. Eu égard à l’objectif général poursuivi à l’article 17 de la directive 2019/790 (142), la limitation en cause répond au « besoin de protection des droits et libertés d’autrui », à savoir des droits d’auteur et des droits voisins des titulaires. Je rappelle que la propriété intellectuelle est protégée en tant que droit fondamental, notamment (143), à l’article 17, paragraphe 2, de la Charte et à l’article 1er du protocole nº 1 à la CEDH (144). Les dispositions attaquées constituent, ainsi, des « mesures positives de protection » adoptées par le législateur de l’Union afin d’assurer auxdits titulaires l’exercice réel et efficace de leurs droits de propriété intellectuelle dans leurs relations avec les fournisseurs de services de partage (145).

118. Les parties sont, en revanche, en désaccord sur le point de savoir si la limitation en cause respecte la première sous-condition. À cet égard, je précise que l’examen du caractère « nécessaire », au sens de l’article 52, paragraphe 1, de la Charte, d’une limitation à l’exercice d’un droit fondamental garanti par celle-ci englobe, en réalité, le contrôle de trois exigences cumulatives : il y a lieu, en effet, de vérifier si cette limitation est (1) « appropriée », (2) « nécessaire » ainsi que (3) « proportionnée » stricto sensu (146). J’examinerai tour à tour ces trois exigences dans les sections qui suivent.

1)      La limitation en cause est « appropriée »

119. L’exigence tenant au caractère « approprié » de la limitation en cause ne semble pas être contestée par la République de Pologne. En toute hypothèse, à l’instar du Parlement et du Conseil, je l’estime remplie.

120. En effet, dans le cadre de l’analyse du caractère approprié d’une mesure donnée, la Cour doit vérifier non pas si cette mesure constitue le meilleur moyen d’atteindre l’objectif poursuivi, mais si elle est apte à contribuer à la réalisation de cet objectif (147).

121. Or, en l’occurrence, les obligations de surveillance pesant sur les fournisseurs de services de partage en application des dispositions attaquées sont aptes à contribuer à l’objectif poursuivi par le législateur de l’Union. En transférant à ces fournisseurs la charge de surveiller leurs services et de lutter activement contre les contenus contrefaisants susceptibles de s’y trouver, ces dispositions, d’une part, incitent fortement lesdits fournisseurs à conclure des accords de licence avec les titulaires de droits (148) et, d’autre part, permettent  auxdits titulaires de contrôler plus aisément l’utilisation de leurs œuvres et objets protégés sur ces services (149).

2)      La limitation en cause est « nécessaire »

122. La République de Pologne fait, en revanche, valoir que la limitation à l’exercice du droit à la liberté d’expression résultant des point b) et point c), in fine, du paragraphe 4 de l’article 17 de la directive 2019/790 irait au-delà de ce qui est « nécessaire » à la réalisation de l’objectif poursuivi par le législateur de l’Union. Selon elle, les obligations prévues au point a) et au point c), in principio, de ce paragraphe seraient suffisantes à cet égard. D’une part, l’obligation incombant aux fournisseurs de services de partage, conformément audit point a), de faire leurs « meilleurs efforts » pour obtenir une autorisation des titulaires de droits renforcerait la position de négociation de ces derniers. D’autre part, l’obligation pesant sur ces mêmes fournisseurs, en vertu dudit point c), in principio, d’agir promptement, dès réception d’une notification suffisamment motivée, pour bloquer l’accès aux œuvres et autres objets protégés faisant l’objet de la notification ou pour les retirer de leurs sites Internet garantirait une protection efficace des droits de ces titulaires.

123. Je ne suis pas de cet avis.

124. À cet égard, je rappelle que le test de « nécessité » revient à vérifier s’il existe des mesures alternatives qui seraient aussi efficaces que la mesure choisie pour atteindre l’objectif poursuivi tout en étant moins contraignantes (150).

125. Or, comme le soutiennent, en substance, le Parlement et le Conseil, un régime de responsabilité imposant uniquement les obligations prévues au point a) et au point c), in principio, du paragraphe 4 de l’article 17 de la directive 2019/790 ne serait clairement pas aussi efficace pour atteindre l’objectif poursuivi par le législateur de l’Union qu’un régime prévoyant, en outre, les obligations découlant du point b) et du point c), in fine, de ce paragraphe – même si les premières obligations sont effectivement moins contraignantes pour le droit à la liberté d’expression que les secondes (151).

126. En effet, d’une part, si, comme le fait valoir la requérante, l’obligation pour les fournisseurs de services de partage de fournir leurs « meilleurs efforts » pour obtenir une autorisation des titulaires de droits renforce déjà, en soi, la position de ces titulaires pour la négociation d’accords de licence avec ces fournisseurs, l’article 17 de la directive 2019/790 ne vise pas uniquement à assurer que lesdits titulaires reçoivent une rémunération équitable pour l’utilisation de leurs œuvres et autres objets protégés sur ces services. Il s’agit, plus largement, de garantir que ces mêmes titulaires puissent contrôler effectivement pareille utilisation et, en particulier, s’ils le souhaitent, empêcher que ces objets soient disponibles sur de tels services.

127. À cet égard, il est indéniable, d’autre part, que, comme le soulignent les parties défenderesses, un système de notification et retrait, tel que celui résultant de l’article 14 de la directive 2000/31 et repris, en substance, à l’article 17, paragraphe 4, sous c), in principio, de la directive 2019/790, ne permet pas aux titulaires concernés de s’opposer à l’utilisation illicite de leurs œuvres sur les services de partage aussi efficacement qu’un système, tel que celui résultant des dispositions attaquées, imposant, en outre, aux fournisseurs de ces services des obligations de surveillance.

3)      La limitation en cause est « proportionnée » stricto sensu

128. Selon une jurisprudence constante de la Cour, une limitation à l’exercice d’un droit fondamental garanti par la Charte est considérée comme « proportionnée », au sens strict du terme, si les inconvénients causés par la mesure en cause ne sont pas démesurés par rapport aux buts visés (152).

129. En l’occurrence, les dispositions attaquées font s’opposer, d’une part, le droit à la liberté d’expression garanti à l’article 11 de la Charte et, d’autre part, le droit de propriété intellectuelle, protégé à l’article 17, paragraphe 2, de cet instrument. Comme le rappellent le Parlement, le Conseil et le gouvernement espagnol, il n’y a pas de « prééminence automatique » du premier droit sur le second (153). L’appréciation de la proportionnalité de ces dispositions doit donc s’effectuer, pour reprendre les termes employés par la Cour, « dans le respect de la conciliation nécessaire des exigences liées à la protection de ces différents droits fondamentaux » et d’un « juste équilibre » entre eux (154). D’ailleurs, en matière de droit d’auteur, la Cour a particulièrement insisté sur la nécessité de maintenir, dans l’environnement numérique, ce « juste équilibre » (155).

130. Or, la République de Pologne fait valoir que le législateur de l’Union n’a, précisément, pas maintenu cet équilibre à l’article 17 de la directive 2019/790. Selon elle, le préjudice causé à la liberté d’expression par les dispositions attaquées serait démesuré par rapport aux avantages qu’elles sont susceptibles de procurer en termes de protection des droits de propriété intellectuelle.

131. Pour ma part, j’estime, à l’instar du Parlement, du Conseil et de la Commission, que le législateur de l’Union pouvait faire le choix de revenir sur l’équilibre inhérent au régime de responsabilité applicable aux fournisseurs de services de partage [sous-section i)]. Le nouveau régime de responsabilité adopté emporte néanmoins des risques importants pour la liberté d’expression [sous-section ii)], nécessitant de prévoir des garanties suffisantes pour minimiser ces risques [sous-section iii)], ce que, selon moi, le législateur de l’Union a fait [sous-section iv)].

i)      Le législateur de l’Union pouvait légitimement substituer un nouvel équilibre à celui qu’il avait initialement mis en œuvre

132. L’exonération de responsabilité prévue, pour les prestataires intermédiaires, à l’article 14 de la directive 2000/31 reflète un équilibre entre, notamment, la liberté d’expression et les droits de propriété intellectuelle, souhaité par le législateur de l’Union lors de l’adoption de cette directive. À l’époque, celui-ci entendait favoriser le développement de ces prestataires, afin de stimuler plus généralement la croissance du commerce électronique et des « services de la société de l’information » dans le marché intérieur. Il importait donc de ne pas imposer auxdits prestataires une responsabilité de nature à mettre en péril leur activité. Les intérêts des titulaires de droits devaient être sauvegardés et mis en balance avec la liberté d’expression des internautes dans le cadre du système de « notification et retrait » ainsi que dans le cadre des injonctions pouvant être prononcées à l’égard de ces mêmes prestataires (156).

133. Comme le fait valoir le Conseil, les circonstances ont indubitablement changé depuis. L’apparition des services du « Web 2.0 » a entraîné des avantages ainsi que des risques économiques et sociaux nouveaux, impactant les différents intérêts en jeu. Dans ce contexte, il était loisible au législateur de l’Union de réexaminer les choix qu’il avait faits près de vingt ans auparavant, d’apprécier ce changement de circonstance et d’évaluer ces avantages et ces risques (157).

134. À cet égard, ainsi que l’ont souligné le Parlement, le Conseil et le gouvernement français, le législateur de l’Union dispose d’un large pouvoir d’appréciation dans les domaines où son action implique des choix de nature tant politique qu’économique ou sociale, et où il est appelé à effectuer des appréciations et des évaluations complexes (158). Adapter le droit d’auteur à l’environnement numérique et fixer, en la matière, un régime de responsabilité pour les services de partage en ligne assurant un juste équilibre entre tous droits et intérêts en jeu est, à n’en point douter, une tâche « complexe » (159).

135. De manière similaire, la Cour EDH reconnaît aux autorités publiques une ample marge d’appréciation lorsqu’elles doivent ménager un équilibre entre différents droits protégés par la CEDH (160). Cette marge d’appréciation était d’autant plus importante, en l’occurrence, qu’il s’agissait, pour le législateur de l’Union, de réguler, en principe, non pas des discours politiques, mais l’utilisation d’œuvres et d’autres objets protégés (161).

136. Dans un contexte largement débattu (162), le législateur de l’Union a fait un choix politique en faveur des industries créatives. Il a estimé que l’équilibre antérieur entre les droits et intérêts en jeu n’était plus satisfaisant et qu’il convenait, afin de continuer à assurer aux titulaires de droits un niveau élevé de protection (163), d’adopter un nouveau régime de responsabilité pour certains prestataires de services du « Web 2.0 », en leur imposant certaines obligations de surveillance des contenus mis en ligne par les utilisateurs de leurs services. Compte tenu de l’ample marge d’appréciation dont disposait le législateur, j’estime qu’un tel choix n’était pas, dans son principe, disproportionné.

137. Plus spécifiquement, le caractère proportionné des dispositions attaquées réside, selon moi, dans le concours des éléments mis en avant par les parties défenderesses et les intervenants, à savoir, premièrement, l’importance du préjudice économique causé aux titulaires de droits par la mise en ligne illicite de leurs œuvres sur les services de partage en ligne, eu égard à la quantité gigantesque de contenu téléversée sur ces services et à la rapidité de l’échange d’informations sur Internet (164), deuxièmement, le fait que, pour ces mêmes raisons, le système de « notification et retrait » ne permet que difficilement à ces titulaires de contrôler l’utilisation de leurs œuvres sur lesdits services, troisièmement, les difficultés qu’ils connaissent pour poursuivre les utilisateurs responsables et, quatrièmement, le fait que les obligations de surveillance concernent des prestataires intermédiaires particuliers. Sur ce dernier point, j’observe que les fournisseurs de services de partage, par la promotion des contenus qu’ils effectuent (165), exercent une certaine influence sur les informations auxquelles le public accède. Ces aspects tendent, dans une certaine mesure (166), à rapprocher ces fournisseurs des intermédiaires traditionnels tels que les éditeurs, de sorte qu’il peut être proportionné d’adopter, en ce qui les concerne, un régime de responsabilité spécifique, différent de celui applicable aux autres hébergeurs (167).

138. De surcroît, comme le font valoir les gouvernements espagnol et français, la Cour EDH, dans son arrêt Delfi AS c. Estonie, a jugé qu’il n’était pas disproportionné, dans le cadre d’une mise en balance entre la liberté d’expression, au sens de l’article 10 de la CEDH, et le droit à l’honneur, garanti à l’article 8 de cette convention, de tenir un grand portail d’actualités en ligne responsable de ne pas avoir empêché la publication de certains types de commentaires illicites laissés par des utilisateurs sur son site Internet à la suite d’un article ou, à tout le moins, de ne pas les avoir retirés de sa propre initiative dans un bref délai.

139. Or, dans cet arrêt, la Cour EDH s’est attachée, premièrement, à l’ampleur du préjudice causé par de tels commentaires, compte tenu de la vitesse de circulation des informations en ligne (168) et, deuxièmement, au fait que, si le système de « notification et retrait » peut constituer dans bien des cas un outil approprié de mise en balance des droits et intérêts de tous les intéressés, il n’était pas suffisant pour faire cesser le grave préjudice résultant de tels commentaires (169). La Cour EDH a également souligné, troisièmement, qu’il aurait été difficile pour la victime de poursuivre les auteurs des commentaires et, quatrièmement, que l’exploitant du portail d’actualités exerçait une certaine influence sur les commentaires postés par les utilisateurs, de sorte qu’il pouvait être justifié d’adopter une approche spécifique en matière de responsabilité en ce qui concerne un tel intermédiaire (170). Une certaine analogie est donc possible avec la présente affaire (171).

ii)    Les risques inhérents à un régime de responsabilité tel que celui résultant des dispositions attaquées

140. Comme le soutient, en substance, le Parlement, dans la mesure où le filtrage que doivent effectuer les fournisseurs de services de partage en application des dispositions attaquées empêchera la diffusion, sur ces services, de contenus violant les droits d’auteur ou les droits voisins, la limitation à l’exercice du droit à la liberté d’expression qui résulte de ces dispositions est, en ce qui concerne ces contenus, justifiée.

141. Néanmoins, le lien que le législateur de l’Union a établi, dans lesdites dispositions, entre responsabilité des fournisseurs de services de partage et efficacité de ce filtrage emporte un risque important pour la liberté d’expression, à savoir celui d’un « sur‑blocage » de contenus licites.

142. Un tel risque de « sur-blocage » existe, de manière générale, lorsque les autorités publiques tiennent les prestataires intermédiaires pour responsables des informations illicites fournies par les utilisateurs de leurs services. Afin d’échapper à tout risque de responsabilité, ces intermédiaires peuvent avoir tendance à faire preuve de zèle et à bloquer exagérément ces informations au moindre doute sur leur licéité (172).

143. En l’occurrence, le risque est, plus spécifiquement, que les fournisseurs de services de partage, afin d’éviter tout risque de responsabilité à l’égard des titulaires de droits, empêchent de manière systématique la mise à disposition, sur leurs services, de tous les contenus reproduisant les œuvres et les autres objets protégés pour lesquels ils ont reçu des « informations pertinentes et nécessaires » ou une « notification suffisamment motivée » de ces derniers, y compris ceux ne portant pas atteinte à leurs droits (173).

144. En effet, outre le fait que certains des utilisateurs souhaitant mettre en ligne les contenus concernés pourraient disposer d’une licence sur les œuvres et objets en question, les titulaires de droits n’ont pas un monopole absolu sur l’utilisation de leurs objets protégés. L’article 5, paragraphe 3, de la directive 2001/29 contient, à cet égard, une liste d’exceptions et limitations au droit exclusif de « communication au public ». Ces exceptions et limitations assurent, en principe, un « juste équilibre » entre, d’une part, l’intérêt de ces titulaires à la protection de leur propriété intellectuelle et, d’autre part, la protection des intérêts et des droits fondamentaux des utilisateurs d’objets protégés, ainsi que de l’intérêt général (174) – notamment l’accès du public à la culture. En particulier, plusieurs desdites exceptions et limitations, dont celles relatives à la citation, à la critique, et à la revue (175) ainsi que celles relatives à la caricature, à la parodie et au pastiche (176) font, dans leurs champs d’application respectifs, prévaloir le droit à la liberté d’expression et de création des utilisateurs sur l’intérêt desdits titulaires.

145. Or, précisément, une partie significative des contenus mis en ligne par les utilisateurs sur les services de partage consiste en des utilisations, voire des réappropriations créatives, d’œuvres et d’autres objets protégés susceptibles d’être couvertes par ces exceptions et limitations (177).

146. Néanmoins, la question de savoir si une telle exception ou limitation est applicable à un contenu donné dépend du contexte et nécessite une certaine analyse (178). La ligne séparant une utilisation légitime de la contrefaçon peut s’avérer, dans différents cas, discutable (179). Dans toutes ces situations équivoques, il pourrait sembler plus simple aux fournisseurs de services de partage d’empêcher la mise à disposition des contenus concernés plutôt que de devoir plaider eux‑mêmes, dans le cadre d’une éventuelle action en responsabilité intentée par les titulaires de droits, l’application de ces exceptions ou limitations (180).

147. Le risque de « sur-blocage » que je viens de décrire est accru, en l’occurrence, par le fait que les conditions d’exonération posées à l’article 17, paragraphe 4, sous b) et sous c), in fine, de la directive 2019/790 obligent de facto, dans bon nombre de cas, les fournisseurs de services de partage à recourir à des outils de reconnaissance automatique de contenu.

148. Il convient, à cet égard, de ne pas perdre de vue les limites inhérentes aux outils en question, limites que la requérante a dûment soulignées et qui, du reste, ont déjà été constatées par la Cour dans ses arrêts Scarlet Extended et SABAM (181). En effet, les outils de reconnaissance automatique de contenu détectent, précisément, des contenus, et non pas des atteintes au droit d’auteur. Ces outils, en particulier ceux fonctionnant selon la technique de l’« empreinte numérique », sont capables de détecter des correspondances, c’est‑à‑dire de reconnaître que le contenu d’un fichier donné reproduit, en tout ou partie, celui d’un fichier de référence (182). En revanche, comme le fait valoir la République de Pologne, lesdits outils ne sont pas capables, en l’état actuel, d’apprécier le contexte dans lequel l’œuvre reproduite est utilisée et, notamment, d’identifier l’application d’une exception ou limitation au droit d’auteur (183). Le risque de « sur-blocage » est d’autant plus important que la capacité de ces mêmes outils à reconnaître des correspondances sur des extraits de plus en plus courts (par exemple, quelques secondes pour un phonogramme) augmente. Leur utilisation emporte donc le risque de priver les utilisateurs d’un espace d’expression et de création permis par lesdites exceptions et limitations (184). En outre, la capacité des outils de reconnaissance automatique à identifier des contenus contrefaisants dépend de la précision et de la véracité des informations fournies par les titulaires de droits. L’utilisation de ces outils peut donc entraîner des réclamations injustifiées concernant, par exemple, des œuvres relevant du domaine public (185), sur la base d’informations de référence erronées ou abusives (risque dit de « sur-réclamation ») (186).

iii) La nécessité de prévoir des garanties suffisantes pour minimiser ces risques

149. Compte tenu des risques de « sur-blocage » décrits dans la sous-section précédente, un régime de responsabilité tel que celui résultant des dispositions attaquées doit, selon moi, être accompagné de garanties suffisantes pour minimiser ces risques et, ainsi, assurer que l’ampleur de l’ingérence dans la liberté d’expression soit précisément encadrée (187). De manière générale, toute sorte de délégation, par les autorités publiques, du contrôle de la légalité en ligne aux prestataires intermédiaires (188), prenant la forme d’obligations de surveillance imposées directement ou indirectement à ces intermédiaires, doit être entourée par de telles garanties.

150. Plus spécifiquement, j’estime qu’un tel régime doit s’inscrire dans un cadre légal fixant des règles claires et précises régissant la portée et l’application des mesures de filtrage devant être mises en œuvre par les prestataires de services visés, de nature à assurer aux utilisateurs de ces services une protection efficace contre le blocage abusif ou arbitraire des informations qu’ils souhaitent mettre en ligne (189).

151. Je souligne également que, lorsque la limitation des droits fondamentaux procède de la législation de l’Union elle-même, et qu’elle lui est donc imputable, comme c’est le cas en l’occurrence (190), le législateur de l’Union a une part importante de responsabilité à cet égard. Il ne saurait, dans une telle hypothèse, totalement abandonner aux États membres – ou, a fortiori, aux prestataires de services chargés de mettre en œuvre cette législation – le soin d’établir de telles garanties. Il doit, au contraire, en définir à tout le moins la substance (191). Cela étant, dès lors qu’il s’agit, en l’occurrence, d’une directive, concernant qui plus est un domaine technique, certaines modalités d’application devront être précisées par les États membres – ainsi que par la Commission (192).

152. J’ajouterais que la nécessité, pour le législateur de l’Union, de prévoir la substance de ces garanties est indispensable pour assurer l’application uniforme de la législation de l’Union dans tous les États membres – une telle uniformité étant d’autant plus nécessaire qu’est en cause, en l’occurrence, une directive d’harmonisation adoptée sur le fondement de l’article 114 TFUE. Les fournisseurs de services de partage, qui opèrent au niveau international, ne devraient pas avoir à se soumettre à 27 régimes nationaux de responsabilité susceptibles de diverger quant à l’étendue des obligations de filtrage qui leurs sont imposées. Surtout, les utilisateurs de ces services devraient bénéficier d’une protection substantiellement identique contre les mesures de blocage abusives ou arbitraires, quel que soit l’État membre dans lequel ils se trouvent.

153. En résumé, si le législateur de l’Union dispose d’une ample marge d’appréciation pour décider du principe d’un régime de responsabilité tel que celui prévu dans les dispositions attaquées, il ne peut, en revanche, faire l’économie des garanties suffisantes pour minimiser les risques en résultant pour la liberté d’expression. Il revient à la Cour, selon moi, de faire un contrôle scrupuleux du respect de cette exigence (193).

iv)    Les garanties prévues en l’occurrence

154. La République de Pologne soutient que le législateur de l’Union n’a pas satisfait à ladite exigence en l’occurrence. Selon elle, les dispositions attaquées ne seraient accompagnées d’aucune garantie de nature à encadrer l’ampleur de l’ingérence dans la liberté d’expression des utilisateurs des services de partage.

155. En revanche, les parties défenderesses et les intervenants font valoir que l’article 17 de la directive 2019/790 comporte un « système de garanties complet ». Les dispositions attaquées seraient, en effet, indissociables des paragraphes 5, 7, 8 et 9 de cet article. Ces paragraphes établiraient des règles claires et précises définissant la portée et l’application des mesures devant être mises en œuvre par les fournisseurs de services de partage et préserveraient, en cela, un « juste équilibre » entre les droits de propriété intellectuelle et la liberté d’expression.

156. Le paragraphe 5 de l’article 17 de la directive 2019/790, qui indique, je le rappelle, que les mesures devant être prises par chaque fournisseur doivent être appréciées, compte tenu du principe de proportionnalité, au regard d’éléments tels que la « taille du service » ou le « coût » des outils disponibles, me semble être pertinent davantage pour la question du respect de la liberté d’entreprise, qui ne fait pas l’objet de la présente affaire, qu’en ce qui concerne la liberté d’expression. Je n’estime donc pas nécessaire de revenir dessus.

157. En revanche, les paragraphes 7, 8 et 9 de cet article contiennent effectivement, à mes yeux, des garanties significatives pour protéger les utilisateurs des services de partage contre les mesures de blocage abusives ou arbitraires de leurs contenus. Je les examinerai donc dans les sous-sections qui suivent.

–       Le droit aux utilisations légitimes des objets protégés (paragraphe 7) et le dispositif de traitement des plaintes (paragraphe 9)

158. Les parties défenderesses et les intervenants ont mis en avant, à juste titre, le fait que l’une des principales garanties visant à limiter le risque que les fournisseurs de services de partage empêchent, en application des dispositions attaquées, la mise à disposition, sur leurs services, des contenus reproduisant de manière légitime les œuvres et autres objets protégés identifiés par les titulaires de droits figure au paragraphe 7 de l’article 17 de la directive 2019/790.

159. En effet, d’une part, le premier alinéa de ce paragraphe prévoit que « la coopération entre les fournisseurs de services de partage et les titulaires de droits (194) ne conduit pas à empêcher la mise à disposition d’œuvres ou d’autres objets protégés téléversés par des utilisateurs qui ne portent pas atteinte au droit d’auteur et aux droits voisins, y compris lorsque ces œuvres ou autres objets protégés sont couverts par une exception ou une limitation » (195).

160. D’autre part, conformément au second alinéa dudit paragraphe, les États membres doivent veiller à ce que les utilisateurs puissent se prévaloir des exceptions et limitations afférentes (a) à la citation, à la critique, et à la revue ainsi que (b) à l’utilisation à des fins de caricature, de parodie ou de pastiche (196) lorsqu’ils mettent en ligne des contenus sur les services de partage.

161. Il en ressort que le législateur de l’Union a expressément reconnu des droits subjectifs en matière de droit d’auteur aux utilisateurs des services de partage. Ces utilisateurs ont désormais le droit, opposable aux fournisseurs de ces services et aux titulaires de droits, d’utiliser de manière légitime, sur lesdits services, des objets protégés, y compris le droit de se prévaloir des exceptions et limitations au droit d’auteur et aux droits voisins (197). Cette reconnaissance, par le législateur, de l’importance de ces exceptions et limitations pour les utilisateurs coïncide avec la jurisprudence de la Cour qui, elle-même, a récemment reconnu que celles-ci « comportent des droits » au profit de ces derniers (198).

162. Je souligne que, conformément à l’article 17, paragraphe 7, de la directive 2019/790, les utilisateurs peuvent se prévaloir de l’ensemble des exceptions et limitations prévues par le droit de l’Union (199), et en particulier de celles énoncées à l’article 5 de la directive 2001/29 – dans la mesure, néanmoins, où elles figurent dans le droit national applicable. Or, tandis que cet article 5 laisse aux États membres la faculté de transposer les exceptions et limitations qu’il énumère (200), ce même paragraphe 7 oblige désormais ces derniers à prévoir, à tout le moins, les exceptions et limitations afférentes à la citation et à la parodie dans leur droit interne (201), eu égard à l’importance particulière de celles-ci pour la liberté d’expression.

163. Il s’ensuit, concrètement, que les fournisseurs des services de partage ne sont pas légalement autorisés à bloquer ou retirer les contenus faisant des utilisations légitimes d’œuvres ou d’autres objets protégés au motif que ces contenus contreviennent au droit d’auteur (202). Ils ne peuvent notamment plus exclure, dans leurs conditions générales d’utilisation ou dans le cadre d’accords contractuels avec les titulaires de droits, l’application des exceptions et limitations, en prévoyant, par exemple, qu’une simple allégation par ces derniers d’une violation du droit d’auteur suffira à justifier une telle mesure de blocage ou de retrait (203). Ces fournisseurs doivent, au contraire, informer leurs utilisateurs, dans ces mêmes conditions générales, qu’ils peuvent utiliser des œuvres et d’autres objets protégés dans le cadre desdites exceptions et limitations (204).

164. Selon moi, en adoptant le paragraphe 7 de l’article 17 de la directive 2019/790, le législateur de l’Union, conscient des risques de « sur-blocage » (205) pouvant résulter du régime de responsabilité qu’il a mis en place, et afin d’assurer un « juste équilibre » entre les droits et intérêts en jeu et de protéger la liberté d’expression des utilisateurs des services de partage (206), a prévu une limite claire et précise aux mesures de filtrage et de blocage devant être mises en œuvre par les fournisseurs de ces services en application du paragraphe 4 de cet article.

165. À cet égard, le Parlement, le Conseil et la Commission ont souligné, à bon droit, que ce même paragraphe 7, eu égard au caractère impératif des termes employés à son premier alinéa – « ne conduit pas » (207) –, impose une obligation de résultat aux fournisseurs de services de partage : ils sont tenus au résultat de ne pas empêcher la mise à disposition, sur leurs services, des contenus reproduisant de manière légitime des œuvres et autres objets protégés, quand bien même ces œuvres et objets auraient été identifiés par les titulaires de droits. La limite des mesures de filtrage et de blocage admissibles est donc nettement tracée : celles-ci ne doivent pas avoir pour objet ou pour effet d’empêcher ces utilisations légitimes. Cette disposition participe donc à contrecarrer la tendance au « zèle » de ces fournisseurs et, ainsi, à encadrer l’ampleur de l’ingérence dans la liberté d’expression afin qu’elle soit limitée à la diffusion des contenus violant les règles du droit d’auteur.

166. La République de Pologne rétorque néanmoins que, compte tenu des limitations inhérentes au fonctionnement des outils de reconnaissance de contenu, évoquées au point 148 des présentes conclusions, et notamment de leur incapacité à identifier l’application des exceptions et limitations au droit d’auteur, l’article 17, paragraphe 7, de la directive 2019/790 constituerait davantage un vœu pieux qu’une garantie effective. Dans les faits, les contenus relevant de ces exceptions et limitations seront bloqués automatiquement par lesdits outils. Cette disposition ne serait donc pas de nature à assurer aux utilisateurs des services de partage une protection efficace contre le blocage abusif ou arbitraire de leurs contenus.

167. L’argumentation de la requérante sur ce point reflète une divergence fondamentale de vues entre les parties et les intervenants s’agissant de la portée de ce paragraphe 7 et de la manière concrète dont les droits des utilisateurs doivent être respectés en pratique. En effet, deux interprétations distinctes de cette disposition ont été discutées devant la Cour à cet égard.

168. Selon une première interprétation, sur laquelle la République de Pologne fonde son recours et qui est, par ailleurs, avancée par les gouvernements espagnol et français, le (seul) mécanisme (208) assurant, en pratique, que les mesures de filtrage et de blocage prises par les fournisseurs de services de partage, en application des dispositions attaquées, n’empêchent pas la mise à disposition, sur leurs services, des utilisations légitimes des œuvres et autres objets protégés serait le « dispositif de traitement des plaintes et de recours » que, conformément au paragraphe 9 de l’article 17 de la directive 2019/790, ces fournisseurs doivent mettre à la dispositions des utilisateurs de leurs services « en cas de litige portant sur le blocage de l’accès à des œuvres ou autres objets protégés qu’ils ont téléversés ou sur leur retrait ».

169. Concrètement, les fournisseurs de services de partage devraient, conformément au souhait des titulaires de droits, bloquer ex ante tous les contenus reproduisant en tout ou partie les œuvres et autres objets protégés identifiés par ces derniers – indépendamment du point de savoir s’ils portent atteinte à leurs droits –, à charge pour un utilisateur estimant qu’il fait une utilisation légitime de ces objets, par exemple dans le cadre d’une exception ou limitation, de formuler une plainte en ce sens. À supposer que cette plainte soit fondée, le contenu concerné serait mis en ligne, ex post, à l’issue de son examen. Je précise que, si la requérante et les gouvernements espagnol et français se rejoignent dans leur compréhension de l’article 17, paragraphe 7, de la directive 2019/790, ils s’opposent radicalement quant aux conséquences qui doivent en être tirées (209).

170. Selon une seconde interprétation, avancée par le Parlement, le Conseil et la Commission, le droit des utilisateurs des services de partage de faire des utilisations légitimes d’objets protégés, prévu à l’article 17, paragraphe 7, de la directive 2019/790, devrait être pris en compte ex ante  par les fournisseurs de ces services, dans le processus même de filtrage. En effet, les dispositions attaquées et ce paragraphe 7 devraient être lus ensemble, et les obligations qu’ils prévoient s’appliqueraient « simultanément ». Les « meilleurs efforts » que ces fournisseurs doivent déployer, conformément à ces dispositions, pour prévenir la mise en ligne des œuvres et objets protégés identifiés par les titulaires de droits ne sauraient donc se traduire, en pratique, par un blocage préventif et systématique de ces utilisations légitimes. Le dispositif de traitement des plaintes et de recours envisagé au paragraphe 9 de cet article 17 constituerait une garantie supplémentaire, et ultime, pour les situations dans lesquelles, en dépit de l’obligation figurant à ce même paragraphe 7, lesdits fournisseurs bloqueraient tout de même, par erreur, de tels contenus légitimes.

171. Je me rallie à cette dernière interprétation laquelle découle, selon moi, d’une analyse littérale, systématique et historique de l’article 17 de la directive 2019/790.

172. Tout d’abord, sur le plan textuel, je rappelle que, selon les termes de l’article 17, paragraphe 7, de la directive 2019/790, la coopération entre titulaires de droits et fournisseurs de services de partage ne doit pas conduire à « empêcher la mise à disposition » de contenus reproduisant de manière légitime des œuvres ou d’autres objets protégés. L’interprétation selon laquelle ces contenus pourraient être systématiquement bloqués ex ante, pour autant que les utilisateurs puissent en obtenir le rétablissement ex post, est loin, à mes yeux, d’être la manière la plus naturelle de comprendre ce libellé (210).

173. Ensuite, sur le plan systématique, comme le fait valoir la Commission, les dispositions attaquées et ce même paragraphe 7 doivent être lus à la lumière du paragraphe 9, troisième alinéa, dudit article 17, selon lequel ladite directive « n’affecte en aucune façon » les utilisations légitimes d’œuvres et d’objets protégés. Or, si les contenus concernés devaient être systématiquement bloqués ex ante, à charge pour les utilisateurs de formuler une plainte pour en obtenir la mise en ligne, ces utilisations légitimes seraient, à l’évidence, « affectées » d’une certaine manière.

174. J’observe également que la question des utilisations légitimes d’objets protégés est évoquée non seulement au considérant 70 de la directive 2019/790, qui porte sur le dispositif de traitement des plaintes, mais également à son considérant 66, premier alinéa (211), relatif aux mesures préventives devant être mises en œuvre par les fournisseurs de services de partage en application des dispositions attaquées. En outre, aux termes dudit considérant 70, premier alinéa, ce dispositif vise à « soutenir » – et non pas à « permettre » – de telles utilisation légitimes.

175. Enfin, les travaux préparatoires tendent à confirmer cette interprétation. À cet égard, j’observe que l’article 17, paragraphe 9, de la directive 2019/790 remonte à l’article 13, paragraphe 2, de la proposition de directive. Cette proposition ne contenait pas de disposition relative aux utilisations légitimes des œuvres et autres objets protégés. Une telle disposition a été ajoutée, par la voie d’amendements, lors de la première lecture du texte au sein du Parlement et du Conseil. Dans ces amendements, le dispositif de traitement des plaintes et de recours avait spécifiquement pour but de permettre ces usages légitimes (212). Or, après le premier rejet du texte par le Parlement le 5 juillet 2018, dans les versions ultérieures du texte, et dans celle finalement adoptée, la question des droits des utilisateurs et celle du dispositif de traitement des plaintes et de recours ont été séparées en deux dispositions distinctes.

176. Ce processus législatif démontre également, selon moi, que l’intention du législateur de l’Union a évolué à cet égard. Si l’article 13 de la proposition de directive était unilatéralement en faveur des titulaires de droits, cet article 13 a muté, lors de son adoption sous la forme de l’article 17 de la directive 2019/790, en une disposition complexe qui tâche de reconnaître et de mettre en balance les différents intérêts en jeu. Comme l’a fait valoir le Conseil, le législateur a fait le choix de protéger, dans cette disposition, tant les titulaires de droits que les utilisateurs. Comme le souligne le Parlement, cet article 17 reflète un compromis délicat à cet égard. Cette évolution ne saurait être ignorée lors de son interprétation (213).

177. L’interprétation, avancée par le Parlement, le Conseil et la Commission, selon laquelle les droits des utilisateurs au titre de l’article 17, paragraphe 7, de la directive 2019/790, doivent être pris en compte ex ante, et non pas seulement ex post, assure, de surcroît, la proportionnalité de la limitation à l’exercice du droit à la liberté d’expression résultant des dispositions attaquées (214).

178. À cet égard, il est vrai que le dispositif de traitement des plaintes et de recours envisagé à l’article 17, paragraphe 9, de la directive 2019/790 constitue tout à la fois une garantie essentielle et une avancée majeure par rapport à la directive 2000/31 (215). Il s’agit d’une composante nécessaire de tout système de filtrage, compte tenu du risque de « sur-blocage » qui en découle. Le législateur de l’Union a également entouré ce dispositif de « sous-garanties » procédurales. Ledit dispositif doit être « rapide et efficace » et les plaintes ainsi déposées traitées « sans retard indu ». En d’autres termes, les fournisseurs de services de partage sont tenus d’agir, en la matière, avec la même promptitude que celle dont ils doivent faire preuve s’agissant des notifications reçues des titulaires de droits, dans le cadre de l’article 17, paragraphe 4, sous c), de la directive 2019/790 (216). En outre, les titulaires de droits doivent justifier « dûment » leurs demandes de blocage et les plaintes doivent être examinées par une personne physique.

179. Qui plus est, conformément à ce même paragraphe 9, les États membres doivent également veiller à ce que des mécanismes de recours extrajudiciaires soient disponibles pour le règlement des litiges entre utilisateurs et titulaires de droits. De tels mécanismes sont utiles pour permettre le règlement impartial de ces litiges. Plus important encore, à mes yeux, les États membres sont tenus de prévoir des « voies de recours judiciaires efficaces » en la matière. À cet égard, dans son arrêt UPC Telekabel Wien (217), la Cour a souligné, en substance, qu’un tel droit à un recours juridictionnel effectif est indispensable pour assurer l’exercice, en ligne, du droit à la liberté d’expression.

180. Toutefois, si ces garanties procédurales sont importantes, elles ne seraient pas, à elles seules, suffisantes pour garantir un « juste équilibre » entre le droit d’auteur et la liberté d’expression des utilisateurs.

181. En premier lieu, conformément à la jurisprudence de la Cour et à celle de la Cour EDH, l’existence de telles garanties procédurales ne dispense pas les autorités publiques de veiller à minimiser l’effet collatéral d’une mesure de filtrage et de blocage. Il s’agit là d’exigences distinctes, et cumulatives.

182. En effet, ces deux juridictions ont itérativement jugé que toute mesure de filtrage et de blocage doit être « strictement ciblée », en ce sens qu’elle doit viser des contenus illicites et ne pas avoir d’effet arbitraire ou excessif sur les contenus licites (218). Dans son arrêt L’Oréal e.a. (219), la Cour a jugé, dans le même sens, que les mesures de surveillance imposées à un intermédiaire ne doivent pas créer d’obstacles aux utilisations licites de son service. Enfin, dans son arrêt UPC Telekabel Wien (220), elle a jugé qu’une mesure de blocage ne doit pas « [priver] inutilement » les internautes de la possibilité de partager des informations de manière licite et d’y accéder.

183. Cette jurisprudence n’implique pas que le droit à la liberté d’expression s’oppose à de telles mesures dès lors qu’elles seraient susceptibles d’entraîner le moindre blocage de contenus licites. Le terme « inutilement », utilisé par la Cour, reflète, selon moi, l’idée selon laquelle l’efficacité de la protection des droits des titulaires peut justifier certains cas de « sur-blocage ».

184. Néanmoins, il doit y avoir, là encore, un « juste équilibre » entre l’efficacité du filtrage et son effet collatéral. Ainsi qu’il ressort, en substance, de la jurisprudence de la Cour EDH, on ne saurait, dans une société démocratique, exiger une efficacité absolue – et, par là, un « risque zéro » quant aux éventuelles violations des droits d’auteur – lorsque cela aurait pour effet de bloquer un nombre non négligeable de contenus licites (221).

185. Le gouvernement français rétorque que, selon son interprétation de l’article 17 de la directive 2019/790, les mesures de filtrage que les fournisseurs de services de partage doivent déployer, en application des dispositions attaquées, satisferaient à cette exigence, dès lors qu’elles seraient « strictement ciblées » sur les contenus reproduisant tout ou partie des œuvres et autres objets protégés identifiés par les titulaires de droits.

186. Cette argumentation ne saurait être retenue. En effet, il ressort des arrêts Scarlet Extended et SABAM, qu’un système de filtrage qui bloquerait de manière systématique les contenus faisant une utilisation légitime d’objets protégés porterait une atteinte disproportionnée à la liberté d’expression et d’information (222) . Il en va ainsi, à mon sens, précisément parce que l’effet collatéral d’un tel filtrage est trop important pour être compatible avec cette liberté – et ce, indépendamment du point de savoir si les utilisateurs lésés bénéficient d’un droit de recours contre le blocage de leur information, aspect que la Cour n’a pas même évoqué dans ces arrêts.

187. Il y a de bonnes raisons à cela. En l’occurrence, d’une part, le blocage préventif de l’ensemble des contenus reproduisant les œuvres et autres objets protégés identifiés par les titulaires de droits aurait pour effet de faire systématiquement reposer le fardeau de l’inaction sur les utilisateurs, puisque la diffusion des contenus légitimes ne pourrait pas avoir lieu sans que ceux-ci formulent une plainte, avec succès. Si ces utilisateurs devaient systématiquement faire valoir leurs droits dans le cadre du dispositif de traitement des plaintes, il est fort probable qu’une partie significative d’entre eux renoncerait à le faire, faute, notamment, de connaissances suffisantes pour évaluer si l’utilisation qu’ils font de ces objets est légitime et si, partant, il existe des motifs pour formuler une telle plainte (223). Le « sur-blocage » préventif de toutes ces utilisations légitimes, et le renversement systématique sur les utilisateurs de la charge de démontrer cette légitimité, risqueraient ainsi d’entraîner, à court ou à long terme, un « chilling effect » sur la liberté d’expression et de création, se traduisant par une baisse de l’activité de ces mêmes utilisateurs (224).

188. D’autre part, l’échange d’informations en ligne se caractérise, notamment, par sa rapidité. Certains types de contenus téléversés sur les services de partage ne sont recherchés par le public que pendant une courte période, notamment ceux se référant à des événements d’actualité (225). Ces contenus deviennent ainsi, bien souvent, obsolètes en quelques jours. Retarder la mise en ligne de tels contenus par un blocage ex ante systématique risquerait de leur faire perdre toute actualité et tout intérêt pour le public. Partant, contrairement aux gouvernements espagnol et français, j’estime qu’un tel blocage systématique serait particulièrement problématique, quand bien même il ne serait que « temporaire », puisque l’éventuelle restauration des contenus à l’issue de l’examen des plaintes des utilisateurs ne permettrait pas de réparer le dommage causé à la liberté d’expression de ces derniers (226).

189. En second lieu, j’observe que la Cour insiste, dans sa jurisprudence récente, sur la nécessité de « sauvegarder l’effet utile » des exceptions et limitations au droit d’auteur, eu égard à leur importance pour le maintien d’un « juste équilibre » entre les droits et intérêts en jeu, tout particulièrement lorsqu’elles visent à garantir le respect de la liberté d’expression – comme c’est le cas de l’utilisation à des fins de citation, de critique ou de revue et de l’utilisation à des fins de caricature, de parodie ou de pastiche (227).

190. Or, précisément, afin de « sauvegarder l’effet utile » de ces exceptions et limitations, il importe, à mes yeux, de veiller à ce que les mesures préventives prises en application des dispositions attaquées n’entravent pas de manière systématique le droit des utilisateurs d’en faire usage. Si les titulaires de droits disposent, dans l’environnement numérique, de possibilités de contrôle de leurs objets protégés sans équivalent dans le « monde réel » – puisque les outils de reconnaissance de contenu leur donnent virtuellement les moyens de prévenir toutes les utilisations de ces objets, y compris celles qui ne relèvent pas de leur monopole, telle que la parodie –, il y a lieu de protéger d’autant ces mêmes exceptions et limitations. Le danger, à cet égard, serait qu’une protection maximale de certaines créations intellectuelles se fasse au détriment d’autres formes de création tout aussi socialement souhaitables (228).

191. Il découle de tout ce qui précède, selon moi, que, conformément à une lecture conjointe des dispositions attaquées et du paragraphe 7 de l’article 17 de la directive 2019/790, les mesures de filtrage que les fournisseurs de services de partage sont tenus de mettre en œuvre doivent être conformes à deux obligations cumulatives : elles doivent tâcher de prévenir la mise en ligne de contenus reproduisant de manière illicite les œuvres et les autres objets protégés identifiés par les titulaires de droits, tout en n’empêchant pas la mise à disposition des contenus reproduisant ces objets de manière licite.

192. Contrairement à ce que fait valoir la requérante, les fournisseurs de services de partage ne peuvent donc pas « appliquer toute mesure disponible » pour protéger les droits de propriété intellectuelle des titulaires (229). Les « meilleurs efforts » et la « diligence professionnelle » dont ils doivent faire preuve à cet égard sont à lire à la lumière de l’article 17, paragraphe 7, de la directive 2019/790. Puisque ces fournisseurs se trouvent dans une position professionnelle bilatérale par rapport aux utilisateurs et aux titulaires de droits, ils doivent agir « diligemment » à l’égard de ces deux catégories.

193. L’article 17, paragraphe 7, de la directive 2019/790 oblige ainsi ces fournisseurs – mais aussi les autorités administratives et judiciaires des États membres lorsqu’elles supervisent la mise en œuvre de cet article (230) – à considérer l’effet collatéral des mesures de filtrage qu’ils mettent en œuvre (231). Ils ne peuvent donc pas bloquer préventivement et systématiquement les contenus relevant, notamment, des exceptions et limitations au droit d’auteur. Ils doivent prendre en compte, ex ante, le respect des droits des utilisateurs. J’invite la Cour à affirmer sans ambages, dans son arrêt à venir, qu’il s’agit là de la juste interprétation de cet article 17.

–       L’interdiction des obligations générales de surveillance (paragraphe 8)

194. Le paragraphe 8 de l’article 17 de la directive 2019/790 dispose que « l’application de [cet article] ne donne lieu à aucune obligation générale de surveillance ». Partant, les dispositions attaquées doivent être lues également à la lumière de ce paragraphe.

195. Or, en réaffirmant l’interdiction d’une telle « obligation » (232), le législateur de l’Union a, selon moi, posé une autre garantie significative pour la liberté d’expression. En effet, cette interdiction encadre la portée des mesures de filtrage qui peuvent être attendues de tout prestataire intermédiaire et, en l’occurrence, des fournisseurs de services de partage.

196. Des enseignements peuvent, à cet égard, être déduits de l’arrêt Glawischnig-Piesczek, que j’ai évoqué précédemment (233). Dans cet arrêt, la Cour, interprétant ladite interdiction, dans sa version issue de l’article 15 de la directive 2000/31, a considéré que l’exploitant d’un réseau social pouvait se voir imposer, par le truchement d’une injonction judiciaire, l’obligation de rechercher et de bloquer, parmi les informations mises en ligne sur ce réseau, « une information précise [...] dont le contenu a été analysé et apprécié par une juridiction compétente [...] qui, à l’issue de son appréciation, l’a déclarée illicite » (234). La juridiction pouvait ainsi exiger de cet exploitant qu’il bloque l’accès à toutes les informations identiques à celle-ci. L’injonction pouvait même s’étendre aux informations équivalentes, pour autant que ledit exploitant ne soit pas obligé de procéder à une « appréciation autonome » de leur licéité et qu’il puisse, au contraire, « recourir à des techniques et à des moyens de recherche automatisés » (235).

197. Il en ressort, de manière générale, que, si les prestataires intermédiaires sont, d’un point de vue technique, bien placés pour lutter contre la présence de certaines informations illicites diffusées par le truchement de leurs services (236), on ne saurait attendre d’eux qu’ils fassent des « appréciations autonomes » de légalité des informations en cause. Ces prestataires intermédiaires ne présentent généralement pas l’expertise et surtout l’indépendance nécessaires – a fortiori lorsque pèse sur eux la menace d’une lourde responsabilité (237). Ils ne sauraient donc être transformés en arbitres de la légalité en ligne, chargés de trancher des questions juridiques complexes (238).

198. Par conséquent, afin de minimiser le risque de « sur‑blocage » et, ainsi, de garantir le respect du droit à la liberté d’expression, un prestataire intermédiaire peut, selon moi, uniquement être tenu de filtrer et de bloquer des informations dont l’illicéité a, au préalable, été établie par un juge ou, à défaut, des informations dont le caractère illicite s’impose d’emblée, c’est‑à‑dire manifestement, sans, notamment, qu’il soit nécessaire de les contextualiser (239).

199. J’observe, d’ailleurs, que les obligations de surveillance que la Cour EDH, dans son arrêt Delfi A.S. c. Estonie, a considéré comme justifiées concernaient des informations manifestement illicites (240). Dans sa jurisprudence subséquente, la Cour EDH a précisé que, s’agissant des informations dont le caractère illicite ne s’impose pas d’emblée et nécessite une analyse contextuelle, pareille surveillance ne saurait être exigée (241). Pour ce dernier type d’informations, une notification dûment motivée, fournissant les éléments de contexte de nature à rendre l’illégalité apparente, voire, lorsque pareille notification n’est pas suffisante à cet égard, une injonction judiciaire, est nécessaire pour en obtenir le retrait.

200. De manière spécifique, comme je l’ai expliqué dans mes conclusions dans les affaires jointes YouTube et Cyando (242), transposé au domaine du droit d’auteur, il découle de l’arrêt Glawischnig-Piesczek que, si conformément à l’article 15 de la directive 2000/31, un prestataire intermédiaire ne saurait être obligé de procéder à un filtrage généralisé des informations qu’il stocke à la recherche de n’importe quelle contrefaçon, cette disposition ne s’opposerait pas, a priori, à ce que ce prestataire soit contraint de procéder à un blocage concernant un fichier précis, faisant une utilisation illicite d’une œuvre protégée, préalablement constatée par un juge. Ladite disposition ne s’opposerait pas, dans ce cadre, à ce que le prestataire soit tenu de détecter et bloquer non seulement les copies identiques de ce fichier, mais également d’autres fichiers équivalents, c’est-à-dire, ceux faisant une même utilisation de l’œuvre en question.

201. Cette interprétation est, selon moi, transposable, mutatis-mutandis, à l’article 17, paragraphe 8, de la directive 2019/790. Dans la mesure où, dans le système de cet article 17, le caractère illicite des contenus à filtrer n’a pas, au préalable, été établi par une juridiction, il ne peut s’agir, conformément à ce qui a été expliqué au point 198 des présentes conclusions, que de rechercher des contenus qui, au regard des informations fournies par les titulaires de droits, apparaissent manifestement contrefaisants. En application des dispositions attaquées, lues à la lumière de ce paragraphe 8, les mesures de filtrage que les fournisseurs de services de partage sont tenus de déployer, en application des dispositions attaquées, doivent donc, selon moi, se limiter aux contenus qui sont « identiques » ou « équivalents » aux œuvres et autres objets protégés identifiés par les titulaires de droits (243).

202. La première catégorie évoquée au point précédent vise, concrètement, les reproductions à l’identique, sans éléments supplémentaires ou valeur ajoutée, des œuvres et autres objets protégés identifiés par les titulaires de droits. La seconde se rapporte aux contenus qui reproduisent ces objets de la même manière, tout en présentant des modifications insignifiantes, de sorte que le public ne les différencierait pas des objets originaux (par exemple en cas de simples altérations techniques destinées à contourner le système de filtrage, tel qu’un changement de format, le renversement ou la modification de la vitesse de l’image, etc.) (244). La détection de ces deux catégories de contenus ne réclamera pas des fournisseurs de services de partage qu’ils fassent une « appréciation autonome » de leur légalité – la contrefaçon apparaîtra manifeste au regard des informations « pertinentes et nécessaires » fournies par les titulaires de droits – et pourra être réalisée à l’aide de « techniques et [...] moyens de recherche automatisés » (245).

203. En revanche, on ne saurait exiger des fournisseurs de services de partage qu’ils filtrent préventivement également les contenus qui, tout en reproduisant des œuvres et objets protégés identifiés par les titulaires de droits, diffèrent sensiblement de ces derniers, comme c’est le cas des réutilisations d’extraits d’œuvres dans d’autres contextes, des contenus « transformatifs », etc., susceptibles d’être couverts par des exceptions et limitations au droit d’auteur. L’identification des contrefaçons susceptibles de s’y trouver impliquerait, de la part de ces fournisseurs, des « appréciations autonomes », puisqu’il leur faudrait évaluer le contexte de ces utilisations. Or, comme le soutient la République de Pologne, les questions complexes du droit d’auteur, relatives notamment à la portée exacte des exceptions et limitations, ne sauraient être abandonnées auxdits fournisseurs. Il ne revient pas à ces mêmes fournisseurs de décider des limites de la créativité en ligne, en examinant eux-mêmes, par exemple, si le contenu qu’un utilisateur projette de téléverser satisfait aux exigences de la parodie. Une telle délégation entraînerait un risque de « sur-blocage » inacceptable. De telles questions doivent être laissées au juge.

–       Les conséquences qui découlent de ce qui précède

204. Il ressort des sections qui précèdent, selon moi, que l’article 17 de la directive 2019/790 contient des garanties suffisantes pour encadrer l’étendue de la limitation de l’exercice du droit à la liberté d’expression résultant des dispositions attaquées.

205. D’une part, conformément au paragraphe 7 de cet article, les fournisseurs de services de partage ne sont pas autorisés à bloquer préventivement, en application des dispositions attaquées, l’ensemble des contenus reproduisant les œuvres et autres objets protégés identifiés par les titulaires de droits, y compris ceux susceptibles d’être licites. D’autre part, en vertu du paragraphe 8 dudit article, ces fournisseurs ne peuvent être tenus de détecter et de bloquer que les contenus qui sont « identiques » et « équivalents » à ces objets, c’est‑à‑dire dont l’illicéité apparaît manifeste au regard des informations « pertinentes et nécessaires » fournies par les titulaires de droits. Dans de tels cas, la contrefaçon étant hautement probable, ces contenus peuvent être présumés illicites. Il est donc proportionné de les bloquer préventivement, à charge pour les utilisateurs concernés d’en démontrer la licéité – par exemple, le fait qu’ils disposent d’une licence, ou que l’œuvre est en réalité dans le domaine public (246) – dans le cadre du dispositif de traitement des plaintes. En somme, les « meilleurs efforts » imposés aux fournisseurs de services de partage, conformément aux dispositions attaquées, consistent à bloquer ces contrefaçons manifestes (247).

206. À l’inverse, dans toutes les situations équivoques – courts extraits d’œuvres repris dans des contenus plus longs, œuvres « transformatives », etc. – dans lesquelles, en particulier, l’application d’exceptions et limitations au droit d’auteur serait raisonnablement envisageable, les contenus concernés ne sauraient faire l’objet d’une mesure de blocage préventive.

207. En effet, comme l’ont souligné le Parlement, le Conseil et la Commission, l’obligation de résultat, prévue à l’article 17, paragraphe 7, premier alinéa, de la directive 2019/790, de ne pas empêcher la mise en ligne de contenus légitimes est, à cet égard, plus contraignante que les obligations de « meilleurs efforts » résultant des dispositions attaquées, qui constituent des obligations de moyens (248). Cela signifie que le législateur de l’Union a entendu, à juste titre selon moi, assurer que, dans pareille hypothèse, les fournisseurs de services de partage privilégient la liberté d’expression. En d’autres termes, le législateur a considéré que les « faux positifs », consistant à bloquer des contenus légaux, seraient plus graves que les « faux négatifs », revenant à laisser passer certains contenus illicites.

208. Ainsi, comme l’ont soutenu le Parlement, le Conseil et la Commission, dans ces situations équivoques, les contenus concernés doivent être présumés licites et, en conséquence, leur mis en ligne ne saurait être entravée.

209. La difficulté réside dans la définition de solutions pratiques pour mettre en œuvre cette dichotomie à l’aide des outils de reconnaissance automatique de contenu que, dans bon nombre de situations, les fournisseurs de services de partage devront utiliser. La requérante a d’ailleurs fait valoir que le législateur de l’Union n’a prévu, dans la directive 2019/790, aucune solution concrète à cet égard.

210. Cela étant, à mon sens, il revenait au législateur de l’Union, comme je l’ai indiqué, de prévoir la substance des garanties nécessaires pour minimiser les risques en matière de liberté d’expression découlant des dispositions attaquées. En revanche, comme l’a fait valoir le Conseil, dans un domaine impliquant de prendre des mesures techniques, tel que celui en cause dans la présente affaire, et compte tenu du fait que l’article 17 de la directive 2019/790 s’appliquera à différents types de fournisseurs, de services et d’objets protégés, il appartient aux États membres et à la Commission d’en concrétiser les modalités (249).

211. En pratique, ces solutions consisteront à intégrer, dans les outils de reconnaissance de contenu, des paramètres permettant d’aider à distinguer le manifeste de l’équivoque. Cela peut varier selon les types d’objets protégés et d’exceptions en cause. Il s’agira, par exemple, de tenir compte des taux de correspondance détectés par ces outils, ainsi que de fixer des seuils au-dessus desquels le blocage automatique d’un contenu est justifié, et en dessous desquels l’application d’une exception, telle que la citation, est raisonnablement envisageable (250). Une telle solution pourrait être couplée avec un mécanisme permettant aux utilisateurs d’indiquer (flagging), lors de, ou immédiatement après la mise en ligne, si, selon eux, ils bénéficient d’une exception ou limitation, ce qui impliquerait, pour le fournisseur concerné, de faire une revue manuelle du contenu en cause afin de vérifier si l’application de cette exception ou limitation est manifestement exclue ou, au contraire, raisonnablement envisageable (251).

212. De manière générale, s’agissant des différents types de fournisseurs, de services et d’œuvres ou d’objets protégés, la définition de ces solutions pratiques ne peut ni être abandonnée auxdits fournisseurs ni, contrairement à ce que fait valoir le gouvernement français, être totalement laissée aux titulaires de droits (252). Eu égard à l’importance desdites solutions pour la liberté d’expression des utilisateurs, elles devront non pas être définies de manière opaque par ces seules parties privées, mais de manière transparente sous la supervision d’autorités publiques.

213. Selon moi, c’est précisément là que réside l’utilité du dialogue entre parties prenantes envisagé par le législateur de l’Union à l’article 17, paragraphe 10, de la directive 2019/790. Cette disposition prévoit l’obligation pour la Commission, en coopération avec les États membres, d’organiser des dialogues entre les fournisseurs de services de partage, les titulaires de droits, les organisations d’utilisateurs et les autres parties prenantes concernées afin d’examiner les « meilleures pratiques pour la coopération entre les fournisseurs de services de partage et les titulaires de droits ». Sur cette base, la Commission doit émettre des orientations sur l’application de cet article 17, en particulier en ce qui concerne la manière de mettre en œuvre les dispositions attaquées. Dans ce processus, une « attention particulière » doit être accordée à « la nécessité de maintenir un équilibre entre les droits fondamentaux et le recours aux exceptions et aux limitations ». Ainsi, la Commission, avec l’aide des parties prenantes, est tenue de proposer des solutions pratiques permettant une mise en œuvre des dispositions attaquées, dans le respect des paragraphes 7 et 8 dudit article 17 (253).

214. Enfin, je précise que, comme le soutient la Commission, et en accord avec ce que j’ai indiqué au point 183 des présentes conclusions, l’obligation prévue à l’article 17, paragraphe 7, de la directive 2019/790 ne signifie pas que les mécanismes qui conduiraient à un nombre négligeable de cas de « faux positifs » seraient automatiquement contraires à cette disposition. Néanmoins, le taux d’erreur devrait être le plus faible possible. Il s’ensuit que, dans les hypothèses dans lesquelles il ne serait pas envisageable, en l’état actuel de la technologie, s’agissant par exemple de certains types d’œuvres et d’objets protégés, d’utiliser un outil de filtrage automatique sans entraîner un taux de « faux positif » non négligeable, l’utilisation d’un tel outil devrait, selon moi, être exclue au titre de ce paragraphe 7 (254).

215. L’interprétation suggérée dans les présentes conclusions n’est pas remise en cause par l’argument des gouvernements espagnol et français selon lequel il serait impératif de bloquer préventivement la totalité des contenus reproduisant en tout ou partie les objets protégés identifiés par les titulaires de droits afin d’éliminer tout risque de diffusion d’un contenu illicite sur un service de partage, une telle diffusion étant susceptible de leur causer un préjudice « irréparable », compte tenu de la rapidité de l’échange d’informations sur Internet.

216. En effet, si, à mes yeux, le risque de préjudice grave et imminent généré par une tentative de mise en ligne d’un contenu manifestement contrefaisant est de nature à justifier une mesure de blocage préventif de ce contenu (255), lesdits titulaires ne peuvent pas exiger le « risque zéro » quant aux éventuelles violations de leurs droits, comme je l’ai indiqué au point 184 des présentes conclusions. Il serait disproportionné d’appliquer de telles mesures à tous les cas, plus discutables, de potentiels dommages, éventuellement causés, par exemple, par des contenus « transformatifs » susceptibles de rentrer ou non dans le cadre des exceptions et limitations au droit d’auteur, qui ne sont pas en concurrence directe avec les objets protégés originaux (256). Pour ces situations, adopter pareilles mesures préventives risquerait, à l’inverse, de causer des dommages « irréparables » à la liberté d’expression, pour les raisons que j’ai expliquées au point 188 de ces conclusions.

217. En outre, la Cour a itérativement jugé « qu’il ne ressort nullement de l’article 17, paragraphe 2, de la Charte que le droit de propriété intellectuelle soit intangible et que, partant, sa protection doive nécessairement être assurée de manière absolue » (257).

218. Du reste, l’interprétation suggérée dans les présentes conclusions ne laisse pas les titulaires de droits sans protection en ce qui concerne ces contenus équivoques. Il ne s’agit notamment pas de revenir sur la portée du droit de communication au public en tant que telle (258). En effet, le fait que certains contenus reproduisant de manière illicite leurs œuvres et autres objets protégés ne soient pas bloqués au moment de la mise en ligne n’empêche pas ces titulaires, notamment (259), de demander le retrait ainsi que le blocage permanent des contenus en question par le truchement d’une notification, conformément à l’article 17, paragraphe 4, sous c), de la directive 2019/790 (260), contenant des explications raisonnables sur les motifs pour lesquels, par exemple, l’application d’une exception devrait être exclue(261). Le fournisseur concerné devra, pour sa part, examiner cette notification de manière diligente et décider si, à la lumière de ces nouveaux éléments, l’illégalité est apparente (262). À supposer que tel soit le cas, le fournisseur concerné devra, sous peine d’engager sa responsabilité, promptement bloquer l’accès au contenu ou le retirer de son site Internet. Comme le souligne la Commission, il ressort du considérant 66, deuxième alinéa, de la directive 2019/790 (263) que le législateur de l’Union avait prévu que, dans certains cas, cette manière de procéder soit la seule permettant de garantir l’indisponibilité d’un contenu donné. Dans l’hypothèse où l’illégalité ne serait pas apparente au regard de ces explications, au motif que le contenu en cause soulève des questions juridiques complexes et/ou nouvelles en matière de droit d’auteur, l’intervention du juge, seul compétent pour trancher de telles questions, sera en principe nécessaire. Il reviendra alors aux titulaires de droits de saisir une autorité judiciaire, sur le fondement notamment de l’article 8, paragraphe 3, de la directive 2001/29, afin que cette autorité statue sur ce contenu et, à supposer qu’il soit illicite, ordonne son blocage.

219. Comme l’a justement fait remarquer le Parlement, cela assure un « juste équilibre » entre les démarches imposées aux utilisateurs, dans certains cas, pour obtenir la mise en ligne de leurs contenus et celles exigées des titulaires de droits, dans d’autres cas, pour en obtenir le retrait (264).

4.      Conclusion quant à la compatibilité de la limitation en cause avec la Charte

220. Il résulte de l’ensemble des considérations qui précèdent que la limitation à l’exercice du droit à la liberté d’expression et d’information résultant des dispositions attaquées, telles qu’interprétées dans les présentes conclusions, satisfait à toutes les conditions prévues à l’article 52, paragraphe 1, de la Charte. Cette limitation est donc, à mes yeux, compatible avec cet instrument. En conséquence, le recours de la République de Pologne doit être, selon moi, rejeté (265).

C.      Post-scriptum

221. Consécutivement à la rédaction des présentes conclusions, au cours de leur traduction par les services de la Cour, deux documents importants ont été publiés.

222. D’une part, l’arrêt YouTube et Cyando (266) a été prononcé. Le raisonnement adopté par la Cour dans cet arrêt s’agissant des directives 2000/31 et 2001/29, que je ne peux examiner en détail ici, ne remet pas en cause, à mes yeux, les considérations développées dans les présentes conclusions (267).

223. D’autre part, la Commission a publié ses orientations sur l’application de l’article 17 de la directive 2019/790 (268). Pour l’essentiel, celles-ci reprennent ce que la Commission avait soutenu devant la Cour et reflètent les explications figurant aux points 158 à 219 des présentes conclusions. Néanmoins, lesdites orientations indiquent également, de manière inédite, que les titulaires de droits devraient avoir la possibilité de « réserver » (earmark) les objets dont la mise en ligne non autorisée serait « susceptible de leur causer un préjudice économique significatif ». Ces fournisseurs devraient faire preuve d’une diligence particulière à l’égard desdits objets. Il est encore indiqué que ces derniers ne rempliraient pas leurs obligations de « meilleurs efforts » s’ils permettaient la mise en ligne de contenus reproduisant ces mêmes objets en dépit de telles « réserves ». Si cela doit être compris en ce sens que ces mêmes fournisseurs devraient bloquer ex ante des contenus sur simple allégation d’un risque de préjudice économique important par les titulaires de droits – les orientations ne contenant pas d’autre critère limitant objectivement le mécanisme de « réservation » à des cas particuliers (269) –, quand bien même ces contenus ne seraient pas manifestement contrefaisants, je ne peux pas y souscrire, sauf à revenir sur l’ensemble des considérations exposées dans ces conclusions.

VI.    Sur les dépens

224. Aux termes de l’article 138, paragraphe 1, du règlement de procédure de la Cour, toute partie qui succombe est condamnée aux dépens s’il est conclu en ce sens. Puisque, selon moi, le recours de la République de Pologne doit être rejeté et que le Parlement et le Conseil ont conclu en ce sens, cet État membre devrait être condamné aux dépens. Néanmoins, les gouvernements espagnol et français ainsi que la Commission, qui sont intervenus au litige, devraient supporter leurs propres dépens, conformément à l’article 140, paragraphe 1, de ce règlement.

VII. Conclusion

225. Eu égard à l’ensemble des considérations qui précèdent, je suggère à la Cour de :

–        rejeter le recours de la République de Pologne ;

–        condamner cet État membre aux dépens, et

–        condamner le Royaume d’Espagne, la République française et la Commission européenne à supporter leurs propres dépens.


1      Langue originale : le français.


2      JO 2019, L 130, p. 92.


3      J’utiliserai indifféremment les termes « mise en ligne » ou « téléversement » pour désigner le processus par lequel un contenu numérique est rendu accessible au public sur les sites Internet ou les applications pour appareils intelligents associées à ces services de partage.


4      Directive du Parlement européen et du Conseil du 8 juin 2000 (JO 2000, L 178, p. 1).


5      Directive du Parlement européen et du Conseil du 22 mai 2001 (JO 2001, L 167, p. 1).


6      Arrêt du 24 novembre 2011 (C‑70/10, ci-après l’« arrêt Scarlet Extended », EU:C:2011:771).


7      Arrêt du 16 février 2012 (C‑360/10, ci-après l’« arrêt SABAM », EU:C:2012:85).


8      Arrêt du 3 octobre 2019 (C‑18/18, ci-après l’« arrêt Glawischnig-Piesczek », EU:C:2019:821).


9      Je précise dès à présent que, après la rédaction des présentes conclusions, au cours de leur traduction, d’une part, l’arrêt du 22 juin 2021, YouTube et Cyando (C‑682/18 et C‑683/18, EU:C:2021:503) a été prononcé et, d’autre part, la Commission a publié ses orientations sur l’application de l’article 17 de la directive 2019/790 (communication from the Commission to the European Parliament and the Council, « Guidance on Article 17 of Directive 2019/790 on Copyright in the Digital Single Market », 4 juin 2021 [COM(2021) 288 final]). Compte tenu du stade avancé auquel ces conclusions se trouvaient, je me suis limité à examiner ces deux documents dans un post scriptum, que le lecteur trouvera aux points 221 et suiv. desdites conclusions.


10      Proposition de directive du Parlement européen et du Conseil sur le droit d’auteur dans le marché unique numérique [COM(2016) 593 final] (ci-après la « proposition de directive »).


11      Voir exposé de motifs de la proposition de directive, p. 2 et 3.


12      Voir proposition de directive, p. 3 et « Commission Staff Working Document, impact assessement on the modernisation of EU copyright rules », [SWD (2016) 301 final] (ci-après « analyse d’impact »), partie 1/3, p. 137 à 141.


13      Voir, concernant la plateforme YouTube, mes conclusions dans les affaires jointes YouTube et Cyando (C‑682/18 et C‑683/18, ci-après les « conclusions dans les affaires jointes YouTube et Cyando », EU:C:2020:586, points 14 à 18).


14      Par exemple, plusieurs centaines de milliers de vidéos sont ainsi publiées chaque jour sur YouTube par les utilisateurs de cette plateforme qui seraient, à en croire Google, plus de 1,9 milliard. Voir mes conclusions dans les affaires jointes YouTube et Cyando (point 43).


15      Voir analyse d’impact, partie 1/3, p. 137, 139 et 142, ainsi que partie 3/3, annexe 12B.


16      L’article 3, paragraphe 1, de la directive 2001/29 contient donc, à proprement parler, un « droit de communication au public » et un « droit de mise à disposition du public ». Néanmoins, dès lors que le premier englobe le second, j’utiliserai, par commodité, le terme de « communication au public » pour désigner indifféremment ces deux droits.


17      Voir l’énumération figurant à l’article 3, paragraphe 2, de la directive 2001/29, reproduite au point 9 des présentes conclusions.


18      À proprement parler, l’article 3, paragraphe 2, de la directive 2001/29 reconnaît seulement aux titulaires de droits voisins un droit exclusif de « mise à disposition du public » de leurs objets protégés. Le droit de « communication au public » au sens strict leur est reconnu à l’article 8 de la directive 2006/115/CE du Parlement européen et du Conseil, du 12 décembre 2006, relative au droit de location et de prêt et à certains droits voisins du droit d’auteur dans le domaine de la propriété intellectuelle (JO 2006, L 376, p. 28). Pour certains titulaires de droits voisins, ce dernier droit est un droit exclusif ; pour d’autres, il s’agit uniquement d’un droit à rémunération. Cela étant, ces nuances sont sans importance pour la présente affaire. Je me bornerai donc à évoquer l’article 3 de la directive 2001/29.


19      Sous réserve des exceptions et limitations au droit d’auteur (voir point 144 des présentes conclusions).


20      Voir, notamment, arrêt du 14 novembre 2019, Spedidam (C‑484/18, EU:C:2019:970, point 38 et jurisprudence citée).


21      Voir, à cet égard, mes conclusions dans les affaires jointes YouTube et Cyando(points 53 à 93).


22      L’article 14, paragraphe 1, de la directive 2000/31 s’applique de manière horizontale pour n’importe quel type de contenu et de responsabilité, quel que soit le domaine du droit concerné (propriété intellectuelle, diffamation, haine en ligne, etc.). Voir mes conclusions dans les affaires jointes YouTube et Cyando (point 138 ainsi que note en bas de page 128).


23      Voir, à cet égard, mes conclusions dans les affaires jointes YouTube et Cyando (points 132 à 168).


24      Elle vient de le faire, dans une certaine mesure, dans son arrêt du 22 juin 2021, YouTube et Cyando (C‑682/18 et C‑683/18, EU:C:2021:503). Voir, sur cet arrêt, point 222 des présentes conclusions.


25      Voir analyse d’impact, partie 1/3, p. 140.


26      Voir exposé des motifs de la proposition de directive, p. 3.


27      Voir point 57 des présentes conclusions.


28      Voir proposition de directive, considérant 38, troisième alinéa, et considérant 39, ainsi qu’article 13, paragraphe 1.


29      Voir, notamment, pétition « Stop the censorship-machinery! Save the Internet! », (accessible à l’adresse https://www.change.org/p/european-parliament-stop-the-censorship-machinery-save-the-internet). Voir, également, Kaye, D., « Mandate of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression », 13 juin 2018, ainsi que « Open Letter to Members of the European Parliament and the Council of the European Union: The Copyright Directive is failing », 26 avril 2018, Nations unies.


30      L’adoption de la directive 2019/790 ne s’est pas faite à l’unanimité. Lors du vote final au Conseil, six États membres (la République italienne, le Grand-duché de Luxembourg, le Royaume des Pays-Bas, la République de Pologne, la République de Finlande et le Royaume de Suède) se sont opposés au texte, tandis que trois États membres (le Royaume de Belgique, la République d’Estonie et la République de Slovénie) se sont abstenus [voir document 8612/19, du 16 avril 2019, « Résultat du vote, directive du Parlement européen et du Conseil sur le droit d’auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE (première lecture) », accessible à l’adresse https ://data.consilium.europa.eu/doc/document/ST8612-2019-INIT/fr/pdf.]. Par ailleurs, plusieurs États membres ont indiqué, dans différentes déclarations, leurs craintes quant aux effets de cette directive sur les droits des utilisateurs (voir déclaration commune des Pays-Bas, du Luxembourg, de la Pologne, de l’Italie et de la Finlande, déclaration de l’Estonie et déclaration de l’Allemagne, disponibles sur http://data.consilium.europa.eu/doc/document/ST-7986-2019-ADD-1-REV-2/FR/pdf).


31      La directive 2019/790 a été publiée au Journal officiel de l’Union européenne le 17 mai 2019. Elle est entrée en vigueur le 7 juin de la même année (voir articles 29 et 31 de cette directive).


32      Par commodité, je me référerai au « fournisseur de services de partage ».


33      Le considérant 62 de la directive 2019/790 précise d’ailleurs que la notion de « fournisseurs de services de partage de contenus en ligne » vise les services qui « jouent un rôle important sur le marché des contenus en ligne en étant en concurrence pour les mêmes publics avec d’autres services de contenus en ligne, comme les services de diffusion audio et vidéo en flux continu », ce qui reflète l’argumentation résumée au point 15 des présentes conclusions.


34      L’article 2, point 6, second alinéa, de la directive 2019/790 comporte une liste non exhaustive de prestataires de services auxquels l’article 17 de cette directive ne devrait pas s’appliquer.


35      Cette responsabilité ne remplace pas, mais s’ajoute à celle des utilisateurs qui téléversent les contenus, qui réalisent eux-mêmes des actes de « communication au public » distincts. Voir, néanmoins, note en bas de page 265 des présentes conclusions.


36      Le considérant 64 de la directive 2019/790 indique qu’il s’agit là d’une « clarification ». En réalité, à mon sens, le législateur de l’Union a redéfini la portée du droit de « communication au public », au sens de l’article 3 de la directive 2001/29 aux (seules) fins de l’application dudit article 17. Voir mes conclusions dans les affaires jointes YouTube et Cyando(points 250 à 255).


37      Considérant 3 de la directive 2019/790.


38      Voir considérant 61 de la directive 2019/790.


39      Voir considérant 61 de la directive 2019/790, précisant que « dès lors que ces dispositions ne devraient pas porter atteinte à la liberté contractuelle, les titulaires de droits ne devraient pas être tenus de donner leur autorisation ni de conclure des accords de licence ».


40      Comme le précise l’article 17, paragraphe 3, second alinéa, de la directive 2019/790, cela n’affecte pas l’application de cet article 14 aux fournisseurs de services de partage pour des finalités qui ne relèvent pas du champ d’application de cette directive. En effet, comme je l’ai expliqué dans mes conclusions dans les affaires jointes YouTube et Cyando (points 141 à 168), les prestataires visés bénéficient à mon avis, dans d’autres hypothèses, de l’exonération prévue audit article 14. Comme le fait valoir la Commission, l’article 17, paragraphe 3, de la directive 2019/790 est donc une lex specialis par rapport à ce même article 14.


41      Il faut comprendre par ces termes que les fournisseurs sont responsables des actes « illicites » de communication au public, c’est-à-dire les actes non autorisés pour lesquels aucune exception ou limitation n’est applicable (voir points 143 et suiv. des présentes conclusions).


42      Voir mes conclusions dans les affaires jointes YouTube et Cyando (points 100 et 101).


43      Voir article 13 de la directive 2004/48/CE du Parlement européen et du Conseil, du 29 avril 2004, relative au respect des droits de propriété intellectuelle (JO 2004, L 157, p. 45).


44      Voir mes conclusions dans les affaires jointes YouTube et Cyando (points 73 à 78).


45      Tout d’abord, tous les titulaires de droits ne souhaiteront pas autoriser l’utilisation de leurs œuvres et objets protégés sur ces services. Ensuite, tandis qu’il sera relativement aisé pour les fournisseurs de services de partage de conclure, le cas échéant, des licences avec les « Majors » ou les organismes de gestion collective, cela sera plus complexe s’agissant de la myriade de « petits » titulaires de droits et d’auteurs individuels. Enfin, s’ajoute à cette complexité le fait que les contenus mis en ligne sur les services de partage sont susceptibles d’impliquer de multiples types de droits différents et que le droit d’auteur et les droits voisins sont soumis au principe de territorialité. Les licences fonctionnent donc sur une base « pays par pays », ce qui multiplie le nombre d’autorisations à obtenir.


46      Voir considérant 66 de la directive 2019/790.


47      À l’exception de l’article 17, paragraphe 6, de la directive 2019/790, prévoyant des conditions spécifiques d’exonération de responsabilité pour les « nouveaux » fournisseurs de services de partage, qui dépasse l’objet du présent recours.


48      Je limiterai donc mon examen à ce droit fondamental, indépendamment des questions que l’article 17 de la directive 2019/790 pourrait soulever au regard d’autres droits fondamentaux garantis par la Charte, tels que la liberté d’entreprise (article 16).


49      Voir, notamment, arrêt du 8 décembre 2020, Pologne/Parlement et Conseil (C‑626/18, EU:C:2020:1000, point 28, ainsi que jurisprudence citée).


50      Mise à part la définition du « fournisseur de services de partage en ligne » figurant à l’article 2, point 6, de la directive 2019/790, qui perdrait sa raison d’être.


51      Conformément à l’article 15 de la directive 2000/31 (voir point 105 des présentes conclusions). Cela étant, certaines obligations de surveillance peuvent être imposées aux prestataires, indépendamment de cette exonération de responsabilité, par le truchement d’injonctions (voir, notamment, article 14, paragraphe 3, de la directive 2000/31 et article 8, paragraphe 3, de la directive 2001/29).


52      Voir, pour plus de détails, mes conclusions dans les affaires jointes YouTube et Cyando (points 173 à 196).


53      La condition prévue à l’article 17, paragraphe 4,sous c), in principio, est, ainsi, analogue à celles prévues à l’article 14 de la directive 2000/31.


54      Une obligation de moyens exige du débiteur qu’il déploie ses meilleurs efforts en vue d’atteindre un résultat, sans être tenu de l’atteindre. Voir, en ce sens, arrêts du 4 juin 2009, Commission/Grèce (C‑250/07, EU:C:2009:338, point 68), ainsi que du 27 mars 2014, UPC Telekabel Wien (C‑314/12, EU:C:2014:192, point 53).


55      Voir considérant 66, deuxième alinéa, de la directive 2019/790.


56      Ainsi, l’article 17, paragraphe 4, de la directive 2019/790 est, en substance, un système de responsabilité pour négligence : les fournisseurs de services de partage seront tenus pour responsables, conformément à cette disposition, lorsqu’ils n’auront pas lutté avec suffisamment de diligence contre la mise en ligne de contenus illicites par les utilisateurs de leurs services. Ledit article 17 est, en cela, une sorte de construction « hybride » entre la responsabilité directe supportée par ceux qui commettent des actes illicites et la responsabilité indirecte (ou « secondaire ») supportée par les intermédiaires pour le fait des tiers. Voir, pour cette distinction, mes conclusions dans les affaires YouTube et Cyando (points 64, 65, 102 et 103).


57      Voir analyse d’impact, partie 1/3, p. 140.


58      Voir mes conclusions dans les affaires jointes YouTube et Cyando (point 193).


59      Voir analyse d’impact, partie 1/3, p. 137, ainsi que considérant 61 de la directive 2019/790.


60      Voir, notamment, arrêt du 8 septembre 2016, GS Media (C‑160/15, EU:C:2016:644, point 28 ainsi que jurisprudence citée).


61      Le « hashing » consiste à représenter numériquement, grâce à un outil dédié, un fichier informatique par une chaîne de caractères alphanumériques unique, dite « hashcode ». En comparant ce « hashcode » avec ceux des fichiers mis en ligne sur un serveur, il est possible de détecter automatiquement toutes les copies identiques du fichier original qui s’y trouvent. Le « watermarking » consiste à intégrer dans un contenu, grâce à un outil dédié, un « marqueur » spécifique, visible ou invisible à l’œil nu, qu’il est ensuite possible de retrouver afin d’identifier le contenu original et les copies qui en sont faites. Enfin, le « fingerprinting » consiste à générer, à l’aide d’un outil dédié, une représentation numérique unique (« empreinte ») d’un contenu donné – une image, un phonogramme, une vidéo, etc. – en le réduisant à certains de ses éléments caractéristiques. En comparant cette « empreinte » avec celles des fichiers se trouvant sur un serveur, il est possible d’identifier tous ceux ayant, en substance, un contenu correspondant. Voir, pour plus de détails, Mochon, J.-P., « Rapport de mission – Une application effective du droit d’auteur sur les plateformes numériques de partage : État de l’art et propositions sur les outils de reconnaissance des contenus », Conseil supérieur de la propriété littéraire et artistique, 29 janvier 2020.


62      Les outils fonctionnant selon la technique du « hashing » sont d’une efficacité limitée en matière de reconnaissance de contenu, dès lors que cette technique permet uniquement, comme je l’ai indiqué à la note précédente, de détecter les copies identiques d’un fichier informatique donné. La moindre altération par rapport au fichier originel (changement d’un pixel d’image, etc.) empêchera la détection automatique, quand les fichiers comparés auraient, en substance un contenu identique. De même, la technique du « watermarking » permet uniquement de détecter les copies d’un fichier marqué et peut être aisément contourné. Voir Mochon, J.-P., op. cit.


63      Ces outils sont utilisés pour détecter d’autres types de contenus illicites (contenus pédopornographiques, injurieux, etc.). Voir Mochon, J.-P., op. cit.


64      Le plus célèbre, à cet égard, étant sans doute le logiciel « Content ID » développé par Google pour YouTube. Voir mes conclusions dans les affaires jointes YouTube et Cyando (point 22).


65      En pratique, le système consiste à générer les « empreintes numériques » des œuvres et autres objets protégés identifiées par les titulaires de droits et à verser ces « empreintes » dans une base de données associée à l’outil de reconnaissance. Puis, par le truchement d’un algorithme, tous les fichiers mis en ligne sont automatiquement scannés, et leurs propres « empreintes » sont comparées à celles figurant dans cette base de données, afin de détecter des correspondances. Les outils de reconnaissance par « empreinte numérique » sont capables d’identifier de telles correspondances même sur de courtes durées (par exemple, plusieurs secondes s’agissant d’un phonogramme), ou que le contenu a été altéré afin d’échapper à la détection automatique (par exemple, l’image du film a été inversée, accélérée, etc). Certains outils, tels que Content ID, sont même capables de reconnaître non seulement des phonogrammes, mais également les mélodies des œuvres sous-jacentes. Voir Mochon, J.-P., op. cit.


66      Voir, pour plus de détails sur ces outils et leurs fournisseurs, analyse d’impact, partie 3/3, p. 164 à 172 et Mochon, J.-P., op. cit.


67      Voir point 22 des présentes conclusions.


68      Voir analyse d’impact, partie 1/3, p. 140 à 144. Voir, dans le même sens, communication de la Commission, « Lutter contre le contenu illicite en ligne, pour une responsabilité accrue des plateformes en ligne » [COM(2017) 555 final], 28 septembre 2017, p. 13 et 14.


69      Le considérant 68 de la directive 2019/790 se borne à indiquer que les fournisseurs de services de partage sont « susceptibles d’entreprendre diverses actions ».


70      Voir, dans le même sens, communiqué de presse du Parlement, 27 mars 2019, « Questions and Answers on issues about the digital copyright directive » : « Is the directive creating automatic filters on online platforms ? No. The draft directive sets a goal to be achieved [...]. The draft directive however does not specify or list what tools, human resources or infrastructures may be needed to prevent unremunerated material appearing on the site. There is therefore no requirement for upload filters. However, if large platforms do not come up with any innovative solutions, they may end up opting for filters [...] » (accessible à l’adresse Internet https://www.europarl.europa.eu/news/en/press-room/20190111IPR23225/questions-and-answers-on-issues-about-the-digital-copyright-directive).


71      C’est, du reste, l’avis d’une bonne partie des experts du domaine. Voir, notamment, Grisse, K., « After the storm – examining the final version of Article 17 of the new Directive (EU) 2019/790 », Journal of Intellectual Property Law & Practice, 2019, vol. 14, nº 11, p. 887 à 899, spéc. p. 894 et 895 ; Leitsner, M., « European Copyright Licensing and Infringement Liability Under Art. 17 DSM-Directive – Can We Make the New European System a Global Opportunity Instead of a Local Challenge?  », Zeitschrift für geistiges Eigentum, 2020, vol. 12, nº 2, p. 123 à 214, spéc. p. 141 et 143 ; Lambrecht, M., « Free speech by design – Algorithmic protection of exceptions and limitations in the Copyright DSM directive », JIPITEC, vol. 11, 2020, p. 68 à 94, spéc. p. 71 ; Dusollier, S., « The 2019 Directive on Copyright in the Digital Single Market: Some Progress, a Few Bad Choices, and an Overall Failed Ambition », Common Market Law Review, vol. 57, 2020, p. 979 à 1030, spéc. p. 1016 ; Mochon, J.-P., op. cit., p. 106, ainsi que Frosio, G., et Mendis, S., « Monitoring and Filtering : European Reform or Global Trend ? », Oxford Handbook of Online Intermediary Liability, Frosio, G. (éd), Oxford University Press, 2020, spéc. p. 562.


72      Voir Lambrecht, M., op. cit., p. 71 : « [...] if YouTube wanted to ensure a human review of the 432.000 hours of video uploaded daily, it would have to hire roughly 70.000 full time (very efficient) employees ».


73      Cela ne signifie pas que les fournisseurs de services de partage ne pourraient pas du tout faire vérifier certains contenus par leurs préposés. Néanmoins, ces fournisseurs devront utiliser des outils automatiques afin, à tout le moins, de réduire la masse des contenus à soumettre à une telle vérification (voir point 211 des présentes conclusions).


74      Certains opérateurs ont apparemment commencé à développer et à utiliser des outils permettant d’identifier des contenus grâce à l’intelligence artificielle. Voir, notamment, Mochon, J.-P., op. cit., p. 35. En tout état de cause, cela reste, par nature, une technique de reconnaissance automatique de contenu.


75      En particulier, le gouvernement français a admis que, « en l’état actuel de la technologie, l’utilisation de mécanismes de filtrage automatique apparaît comme le dispositif le mieux à même d’identifier rapidement la mise en ligne non autorisée d’un contenu protégé, compte tenu de la masse de contenus mis en ligne en permanence sur les plateformes concernées par l’article 17 ». Le Conseil a également reconnu que les « grands » fournisseurs de services de partage pourraient « se sentir obligés » d’utiliser de tels outils.


76      Les outils de reconnaissance par « empreinte numérique » peuvent être utilisés sur les contenus audio, photo et vidéo. Voir Mochon, J.-P., op. cit. Je précise que l’article 17 de la directive 2019/790 s’applique, en l’absence de toute limitation à cet égard dans les termes de cet article ou dans la définition du « fournisseur de service de partage de contenus en ligne » figurant à l’article 2, point 6, de cette directive, à tous les types d’objets protégés (visuels, musicaux, cinématographiques, textuels, mais aussi les lignes de codes, les jeux vidéo, etc.).


77      Voir également considérant 66, deuxième alinéa, de la directive 2019/790 (« [...] Différents moyens pourraient être appropriés et proportionnés, en fonction du type de contenu [...] »).


78      Voir notamment, Mochon, J.-P., op. cit., p. 12. Il semble que ce soit le cas, notamment, de parties filmées sur des jeux vidéo. En l’absence d’outils informatiques permettant de filtrer automatiquement et efficacement certains types d’œuvres et d’objets protégés, il ne saurait être exclu que la portée des obligations de diligence imposées aux fournisseurs de services de partage soit, à cet égard, sensiblement réduite, en application du principe de proportionnalité. Voir, en ce sens, considérant 66, deuxième alinéa, de la directive 2019/790 selon lequel « il ne peut [...] être exclu que dans certains cas, la disponibilité de contenus non autorisés protégés par le droit d’auteur ne puisse être évitée que sur notification des titulaires de droits ».


79      Voir Grisse, K., op. cit., p. 895, ainsi que Frosio, G., et Mendis, S., op. cit., p. 562.


80      Voir, par analogie, arrêt du 27 mars 2014, UPC Telekabel Wien (C‑314/12, EU:C:2014:192, points 51 à 53).


81      Par ailleurs, les outils de reconnaissance de contenu vont, dans bon nombre de cas, permettre aux fournisseurs de services de partage de remplir les obligations de transparence qui leur sont imposées à l’article 17, paragraphe 8, deuxième alinéa, de la directive 2019/790. En effet, conformément à cette disposition, ces fournisseurs doivent donner aux titulaires de droits des informations sur l’utilisation des contenus couverts par les éventuels accords de licence conclus avec ces derniers. Or, ces outils permettent justement de récolter des statistiques, souvent très précises, sur l’audience des contenus présents sur ces services (voir analyse d’impact, partie 3/3, p. 165, ainsi que point 58 des présentes conclusions).


82      Voir, notamment, arrêt du 29 juillet 2019, Funke Medien NRW (C‑469/17, EU:C:2019:623, point 73 ainsi que jurisprudence citée). Voir, également, article 19 de la Déclaration universelle des droits de l’homme, adoptée le 10 décembre 1948 par l’Assemblée générale des Nations unies [Résolution 217 A(III)], et article 19 du pacte international relatif aux droits civils et politiques, adopté le 16 décembre 1966 par l’Assemblée générale des Nations unies.


83      Voir, par analogie, Cour EDH, 19 février 2013, Neij et Sunde Kolmisoppi c. Suède, CE:ECHR:2013:0219DEC004039712 (ci-après « Cour EDH, Neij e.a. c Suède »), p. 9 et 10 ; Cour EDH, 10 avril 2013, Ashby Donald et autres c. France, CE:ECHR:2013:0110JUD003676908 (ci-après « Cour EDH, Ashby Donald e.a. c. France »), §34, ainsi que conclusions de l’avocat général Jääskinen dans l’affaire L’Oréal e.a. (C‑324/09, EU:C:2010:757, points 49 et 157).


84      En effet, si la CEDH ne connaît pas une telle liberté en tant que droit autonome, la « liberté d’expression artistique » relève de l’article 10 de cette convention. Voir, notamment, Cour EDH, 24 mai 1988, Müller e.a. c. Suisse, CE:ECHR:1988:0524JUD001073784, § 27, ainsi que Cour EDH, 8 juillet 1999, Karataş c. Turquie, CE:ECHR:1999:0708JUD002316894, § 49.


85      À ma connaissance, les seules opinions, informations ou idées qui sont d’emblée soustraites de la protection de l’article 10 de la CEDH sont les discours de haine, au motif qu’ils sont incompatibles avec les valeurs proclamées et garanties par cette convention (voir, notamment, Cour EDH, Gunduz c. Turquie, CE:ECHR:2003:1204JUD003507197, § 41).


86      Voir, notamment, Cour EDH, Neij e.a. c Suède, p. 10 et 12, ainsi que Cour EDH, Ashby Donald e.a. c. France , § 35 et 44. Voir, également, Smith, G., « Copyright and freedom of expression in the online world », Journal of Intellectual Property Law & practice, 2010, vol. 5, nº 2, p. 88 à 95, ainsi que Michaux, B., « Chapitre 13. Diffusion du savoir. Droit d’auteur et Internet », L’Europe des droits de l’homme à l’heure d'Internet, Van Enis, Q. (Dir.), Bruylant, 2019, p. 491 à 526. Voir encore point 117 des présentes conclusions.


87      Voir Cour EDH, 18 décembre 2012, Ahmet Yildirim c. Turquie, CE:ECHR:2012:1218JUD000311110 (ci-après « Cour EDH, Ahmet Yildirim c. Turquie »), § 55 ; Cour EDH, 23 juin 2020, Vladimir Kharitonov c. Russie, CE:ECHR:2020:0623JUD001079514, § 36, ainsi que Cour EDH, 30 avril 2019, Kablis c. Russie, CE:ECHR:2019:0430JUD004831016 (ci-après « Cour EDH, Kablis c. Russie »), § 90.


88      Voir, par analogie, arrêts Scarlet Extended (points 29, 36, 37 et 40), ainsi que SABAM (points 26, 35, 37 et 38). Cela peut être contrasté avec les mesures « répressives » qui existaient jusqu’à présent, telles que le retrait, à la suite d’une notification ou ordonné par un juge, d’une information qui a déjà été mise en ligne, dont l’illégalité est manifeste et/ou a été appréciée par ce juge.


89      Voir, par analogie, Cour EDH, Ahmet Yildirim c. Turquie, § 55, ainsi que Cour EDH, 23 juin 2020, Vladimir Kharitonov c. Russie, CE:ECHR:2020:0623JUD001079514, § 36 (concernant des mesures de blocage de sites Internet), ainsi que conclusions de l’avocat général Cruz Villalón dans l’affaire Scarlet Extended (C‑70/10, EU:C:2011:255, point 85). Le fait que, comme je l’expliquerai en détail par la suite, les contenus bloqués pourront, le cas échéant, être remis en ligne lorsque les utilisateurs concernés démontreront, dans le cadre du dispositif de plaintes envisagé à l’article 17, paragraphe 9, de la directive 2019/790, qu’ils ne portent pas atteinte aux droits d’auteur n’est pas, selon moi, de nature à remettre en cause ce constat d’« ingérence ». Il en va de même du point de savoir si ce filtrage est strictement ciblé ou non sur les contenus illicites. En revanche, ces circonstances seront analysées dans le cadre de l’examen du caractère proportionné de cette ingérence.


90      Dans cette hypothèse, la question qui se pose au titre de cette liberté est de savoir dans quelle mesure, eu égard à l’importance acquise par ces services – qui sont devenus des infrastructures essentielles pour l’exercice de la liberté de communication en ligne (voir point 103 des présentes conclusions) – leurs fournisseurs doivent respecter les droits fondamentaux des utilisateurs et dans quelle mesure les autorités publiques sont tenues, au titre des « obligations positives » découlant de ces articles, d’adopter des « mesures positives de protection » garantissant la jouissance effective de ladite liberté dans les relations entre les utilisateurs et les fournisseurs des services de partage. Il n’est pas nécessaire de trancher ces questions en l’espèce. Voir, s’agissant des « obligations positives » découlant de l’article 10 de la CEDH, notamment, Cour EDH, 6 mai 2003, Appleby c. Royaume-Uni, CE:ECHR:2003:0506JUD004430698, § 39, et Cour EDH, 16 décembre 2008, Khurshid Mustafa c. Suède, CE:ECHR:2008:1216JUD002388306, § 31.


91      Voir, par analogie, Cour EDH, 28 juin 2001, VgT Verein gegen Tierfabriken c. Suisse, CE:ECHR:2001:0628JUD002469994, § 44 à 47. Dans cette affaire, la Cour EDH a jugé que le refus, par une chaîne de télévision privée, de diffuser un spot télévisé élaboré par une association de protection des animaux constituait une « ingérence » dans la liberté d’expression de cette association imputable à l’État défendeur, dès lors que ce refus visait à respecter la loi nationale en matière de radio et de télévision interdisant la propagande politique. Ainsi, contrairement à la République de Pologne, je ne pense pas que la théorie des « obligations positives » soit pertinente en l’occurrence. En tout état de cause, ce point n’est pas déterminant dans le raisonnement. À cet égard, la Cour EDH a itérativement jugé que « [l]a frontière entre les obligations positives et les obligations négatives de l’État au titre de la [CEDH] ne se prête [...] pas à une définition précise » et que les principes applicables dans l’un ou l’autre cas sont en substance les mêmes (voir, notamment, Cour EDH, 13 juillet 2012, Mouvement Raëlien Suisse c. Suisse, CE:ECHR:2011:0113JUD001635406, § 50 ainsi que jurisprudence citée).


92      Voir, par analogie, Cour EDH, 25 mars 1993, Costello-Roberts c. Royaume-Uni, CE:ECHR:1993:0325JUD001313487, § 27 : « l’État ne saurait se soustraire à sa responsabilité en déléguant ses obligations à des organismes privés ou des particuliers ».


93      Voir note en bas de page 45 des présentes conclusions.


94      J’ajouterai, pour finir, que le fait même d’obliger, indirectement, les fournisseurs de services de partage à effectuer une telle surveillance de leurs services constitue, en soi, une « ingérence » du législateur de l’Union dans la liberté d’expression de ces fournisseurs. En effet, dès lors qu’ils donnent à tout un chacun des moyens permettant de recevoir ou de communiquer des informations, leur activité relève de l’article 11 de la Charte et de l’article 10 de la CEDH. Voir, par analogie, Cour EDH, Neij e.a. c Suède, p. 9 et 10 ; Cour EDH, 2 février 2016, Magyar Tartalomzolgáltatók Egyesület and Index.hu zrt c. Hongrie, CE:ECHR:2016:0202JUD002294713, § 45, ainsi que Cour EDH, 4 juin 2020, Jezior c. Pologne, CE:ECHR:2020:0604JUD003195511, § 41.


95      Voir, notamment, Cour EDH, 14 mars 2002, Gaweda c. Pologne, CE:ECHR:2002:0314JUD002622995, § 37 ; Cour EDH, Ahmet Yildirim c. Turquie, § 56, ainsi que Cour EDH, 23 juin 2020, Vladimir Kharitonov c. Russie, CE:ECHR:2020:0623JUD001079514, § 36.


96      Voir point 71 des présentes conclusions. Du reste, en vertu de l’article 53 de la Charte, le niveau de protection offert par cet instrument ne peut jamais être inférieur à celui qui est garanti par la CEDH. À cette fin, la Cour doit retenir une interprétation des conditions prévues à l’article 52, paragraphe 1, de la Charte qui soit au moins aussi stricte que celle que la Cour EDH donne aux conditions figurant à l’article 10, paragraphe 2, de la CEDH.


97      Voir, notamment, arrêt du 17 décembre 2015, WebMindLicenses (C‑419/14, EU:C:2015:832, point 81) ; avis 1/15 (Accord PNR UE-Canada), du 26 juillet 2017 (EU:C:2017:592, point 146), ainsi que mes conclusions dans l’affaire Facebook Ireland et Schrems (C‑311/18, EU:C:2019:1145, point 263).


98      Voir, notamment, arrêt du 17 décembre 2015, WebMindLicenses (C‑419/14, EU:C:2015:832, point 81).


99      Voir, notamment, Cour EDH, 26 avril 1979, Sunday Times c. Royaume-Uni, CE:ECHR:1979:0426JUD000653874, § 49 ; Cour EDH, 14 mars 2002, Gaweda c. Pologne, CE:ECHR:2002:0314JUD002622995, § 39, ainsi que Cour EDH, 23 juin 2020, Vladimir Kharitonov c. Russie, CE:ECHR:2020:0623JUD001079514, § 37.


100      En ce sens, la Cour EDH a itérativement jugé que « [l]a certitude, bien que souhaitable, s’accompagne parfois d’une rigidité excessive ; or le droit doit pouvoir s’adapter aux changements de situation. Aussi beaucoup de lois emploient-elles, par la force des choses, des formules plus ou moins vagues dont l’interprétation et l’application dépendent de la pratique ». Voir, notamment, Cour EDH, 16 juin 2015, Delfi AS c. Estonie, CE:ECHR:2015:0616JUD006456909 (ci-après « Cour EDH, Delfi AS c. Estonie »), § 121 ainsi que jurisprudence citée.


101      Le simple fait que, en l’occurrence, les parties et les intervenants ont avancé différentes interprétations de l’article 17 de la directive 2019/790 (voir points 168 et 170 des présentes conclusions) ne signifie pas que l’exigence de « prévisibilité » n’est pas respectée (voir, notamment, Cour EDH, 17 février 2004, Gorzelik et autres c. Pologne, CE:ECHR:2004:0217JUD004415898, § 65). Il reviendra à la Cour de clarifier la juste interprétation de cette disposition.


102      Voir, notamment, arrêt du 17 décembre 2015, WebMindLicenses (C‑419/14, EU:C:2015:832, point 81).


103      Voir, notamment, Cour EDH, Ahmet Yildirim c. Turquie, § 59 et 64, ainsi que Cour EDH, 23 juin 2020, Vladimir Kharitonov c. Russie, CE:ECHR:2020:0623JUD001079514, § 37.


104      Voir, par analogie, arrêt du 6 octobre 2020, La Quadrature du Net e.a. (C‑511/18, C‑512/18 et C‑520/18, EU:C:2020:791, point 132).


105      Voir points 128 et suiv. des présentes conclusions.


106      Voir mes conclusions dans l’affaire Facebook Ireland et Schrems (C‑311/18, EU:C:2019:1145, point 272).


107      Voir points 117 et 129 des présentes conclusions.


108      Voir notamment, Cour EDH, 26 novembre 1991, Observer et Guardian c. Royaume-Uni, CE:ECHR:1991:1126JUD001358588, § 60 ; Cour EDH, 14 mars 2002, Gaweda c. Pologne, CE:ECHR:2002:0314JUD002622995, § 35, ainsi que Cour EDH, Ahmet Yildirim c. Turquie, § 64 et références citées).


109      Je rappelle que, pour ce motif, la liberté d’expression est un fondement essentiel de toute société démocratique. Voir, notamment, arrêt du 23 avril 2020, Associazione Avvocatura per i diritti LGBTI (C‑507/18, EU:C:2020:289, point 48 et jurisprudence citée) ; Cour EDH, 7 décembre 1976, Handyside CE:ECHR:1976:1207JUD000549372, § 49, ainsi que Cour EDH, 26 novembre 1991, Observer et Guardian c. Royaume-Uni, CE:ECHR:1991:1126JUD001358588, § 59.


110      Voir, d’une part, arrêt du 8 septembre 2016, GS Media (C‑160/15, EU:C:2016:644, point 45). Voir, d’autre part, Cour EDH, 10 mars 2009, Times Newspapers Ltd c. Royaume-Uni, CE:ECHR:2009:0310JUD000300203, § 27 ; Cour EDH, Ahmet Yildirim c. Turquie, § 48 et 54, ainsi que Cour EDH, 1er décembre 2015, Cengiz e.a. c. Turquie, CE:ECHR:2015:1201JUD004822610, § 49 et 52.


111      Voir, notamment, Cour EDH, 1er décembre 2015, Cengiz e.a. c. Turquie, CE:ECHR:2015:1201JUD004822610, § 51 et 52, ainsi que Cour EDH, Kablis c. Russie, § 81.


112      Voir, notamment, recommandation CM/rec(2018)2 du Comité des Ministres aux États membres sur les rôles et les responsabilité des intermédiaires d’internet, adoptée par le Comité des Ministres le 7 mars 2018, lors de la 1309e réunion des Délégués des Ministres, ainsi que Balkin, J. M., « Old-School/New-School Speech Regulation », Harvard Law Review, vol. 127, nº 8, 2014, p. 2296 à 2342, spéc. p. 2304.


113      Voir Conseil constitutionnel (France), décision nº 2020-801 DC du 18 juin 2020, « Loi visant à lutter contre les contenus haineux sur internet », § 4.


114      C’est-à-dire par le truchement d’un mécanisme d’exonération de responsabilité, comme en l’occurrence (voir point 62 des présentes conclusions).


115      Voir conclusions de l’avocat général Poiares Maduro dans les affaires jointes Google France et Google (C‑236/08 à C‑238/08, EU:C:2009:569, points 142 et 143). Voir également recommandation CM/Rec(2007)16 du Comité des Ministres aux États membres sur des mesures visant à promouvoir la valeur de service public de l’Internet, adoptée par le Comité des Ministres le 7 novembre 2007, lors de la 1010e réunion des Délégués des Ministres, annexe, partie III, point a), ainsi que recommandation CM/Rec(2018)2 sur les rôles et les responsabilités des intermédiaires d’internet, annexe, point 1.3.5.


116      Voir, dans le même sens, Smith, G., « Time to speak up for Article 15 », Blog Cyberleagle, 21 mai 2017 (accessible à l’adresse https://www.cyberleagle.com/2017/05/time-to-speak-up-for-article-15.html).


117      Voir arrêts Scarlet Extended (points 40 et 52) et SABAM (points 38 et 50).


118      La Cour a itérativement jugé que les règles nationales définissant les modalités desdites injonctions, de mêmes que leur application par les juridictions nationales, doivent respecter l’interdiction des « obligations générales de surveillance » prévue à l’article 15 de la directive 2000/31. Voir, notamment, arrêts Scarlet Extended (points 32 à 35) et SABAM (points 30 à 33).


119      Voir considérant 45 et article 14, paragraphe 3, de la directive 2000/31.


120      Voir considérant 47 de la directive 2000/31 (« [l]’interdiction pour les États membres d’imposer aux prestataires de services une obligation de surveillance [...] ne concerne pas les obligations de surveillance applicables à un cas spécifique [...] »).


121      Voir Cour EDH, Ahmet Yildirim c. Turquie, § 64 ; Cour EDH, 1er décembre 2015, Cengiz e.a. c. Turquie, CE:ECHR:2015:1201JUD004822610, § 62, ainsi que Cour EDH, Kablis c. Russie, § 97.


122      Voir point 138 des présentes conclusions.


123      Voir, dans le même sens, Grisse, K., op. cit., p. 897 ; Spindler, G., « The liability system of Art. 17 DSMD and national implementation – Contravening prohibition of general monitoring duties ? », JIPITEC, vol. 10, 2020, p. 350 et 353 à 359, ainsi que Cabay, J., « Lecture prospective de l’article 17 de la directive sur le droit d’auteur dans le marché unique numérique : Vers une obligation de filtrage limitée par la CJUE, garante du “juste équilibre” », Propriété intellectuelle à l’ère du big data et de la blockchain, Schulthess, De Werra, J., et Benhamou, Y. (éd), Genève, 2021, p. 225 à 237.


124      Je précise que, contrairement à ce que laisse entendre le Parlement, cette jurisprudence est pertinente en l’occurrence même si elle concerne des injonctions prononcées par des juridictions nationales, et non un acte adopté par le législateur de l’Union. En effet, la notion d’« obligation générale de surveillance » doit être interprétée de la même façon, indépendamment de l’origine d’une telle obligation [voir, en ce sens, mes conclusions dans les affaires jointes YouTube et Cyando (note en bas de page 104)].


125      Arrêt du 12 juillet 2011 (C‑324/09, EU:C:2011:474, point 139).


126      Arrêt Scarlet Extended (points 29 et 38 à 40). La Cour a, selon ma lecture, attaché un poids décisif au fait qu’« une telle surveillance préventive exigerait une observation active de la totalité des communications électroniques réalisées sur le réseau du [fournisseur d’accès à Internet] concerné et, partant, elle engloberait toute information à transmettre et tout client utilisant ce réseau » (point 39) (souligné par mes soins).


127      Voir points 35 à 38 de cet arrêt.


128      Arrêt du 15 septembre 2016 (C‑484/14, EU:C:2016:689, points 25 et 88).


129      On pourrait sérieusement s’interroger sur le point de savoir si les dispositions attaquées emporteraient une « obligation générale de surveillance », telle que cette notion est comprise dans ces arrêts. En particulier, les différences entre les obligations résultant de ces dispositions et le système de filtrage en cause dans l’affaire ayant donné lieu à l’arrêt Scarlet Extended sont loin d’être évidentes. Dans cette affaire, les titulaires de droits demandaient à ce qu’il soit enjoint à l’intermédiaire d’« identifi[er] [...] les fichiers qui contiennent des œuvres sur lesquelles [ces titulaires] prétendent détenir des droits » (point 38 de cet arrêt), et ce, concrètement, au moyen de l’outil « Audible Magic » [voir conclusions de l’avocat général Cruz Villalón dans l’affaire Scarlet Extended (C‑70/10, EU:C:2011:255, points 21 et 24)]. Or, il s’agit d’un outil de reconnaissance par « empreinte numérique », fonctionnant sur la base de fichiers de référence fournis par lesdits titulaires et qui, du reste, est mentionné dans l’analyse d’impact (partie 3/3, p. 55).


130      Je précise que cet arrêt a été prononcé après l’introduction du présent recours.


131      Voir conclusions de l’avocat général Szpunar dans l’affaire Glawischnig-Piesczek (C‑18/18, EU:C:2019:458, points 25, 26 et 59).


132      Arrêt Glawischnig-Piesczek (point 35).


133      Arrêt Glawischnig-Piesczek (point 46).


134      Je précise que, si l’arrêt Glawischnig-Piesczek concerne le droit de la diffamation, les enseignements qui en ressortent dépassent ce domaine. En effet, la notion d’« obligation générale de surveillance » s’applique de manière horizontale, quel que soit le type d’infractions devant être recherchées par l’intermédiaire. Voir conclusions de l’avocat général Szpunar dans l’affaire Glawischnig-Piesczek (C‑18/18, EU:C:2019:458, point 43).


135      Voir points 194 à 199 des présentes conclusions.


136      Voir points 200 à 203 des présentes conclusions.


137      Je relève, d’ailleurs, que le législateur de l’Union a réaffirmé l’interdiction des « obligations générales de surveillance » à l’article 17, paragraphe 8, de la directive 2019/790 (voir points 194 à 203 des présentes conclusions).


138      Voir, notamment, communications de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 6 mai 2015, « Stratégie pour un marché unique numérique en Europe » [COM(2015) 192 final], p. 4, 8 et 12 à 14 ; du 25 mai 2016, « Les plateformes en ligne et le marché unique numérique – Perspectives et défis pour l’Europe » [COM(2016) 288 final], p. 8 à 11 ; du 28 septembre 2017, « Lutter contre le contenu illicite en ligne, pour une responsabilité accrue des plateformes en ligne », [COM(2017) 555 final]. Voir également recommandation (UE) 2018/334 de la Commission, du 1er mars 2018, sur les mesures destinées à lutter, de manière efficace, contre les contenus illicites en ligne (JO 2018, L 63, p. 50), considérants 1 à 5, 24 et 36, ainsi que points 18, 36 et 37.


139      Voir, notamment, règlement (UE) 2021/784 du Parlement européen et du Conseil, du 29 avril 2021, relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne (JO 2021, L 172, p. 79), spéc. article 5, ainsi que proposition de règlement du Parlement européen et du Conseil du 15 décembre 2020, relatif à un marché intérieur des services numériques (Législation sur les services numériques) et modifiant la directive 2000/31/CE [COM(2020) 825 final], spéc. article 27. J’observe que le principe selon lequel les intermédiaires en ligne ne sauraient être soumis à une obligation générale de surveillance est réaffirmé à l’article 7 de cette dernière proposition.


140      Voir point 84 des présentes conclusions.


141      Voir points 140 à 153 des présentes conclusions. Voir également, dans le même sens, recommandation 2018/334 (considérants 24, 27, 36, ainsi que points 19 à 21).


142      Voir point 28 des présentes conclusions.


143      Voir également article 27, paragraphe 2, de la Déclaration universelle des droits de l’homme, ainsi qu’article 15 du Pacte international relatif aux droits économiques, sociaux et culturels.


144      Voir, notamment, Cour EDH, 11 janvier 2007, Anheuser-Busch Inc. c. Portugal, CE:ECHR:2007:0111JUD007304901, § 72 ; Cour EDH, Ashby Donald e.a. c. France, § 40, ainsi que Cour EDH, Neij e.a. c Suède, p. 11.


145      Voir, par analogie, arrêts du 29 janvier 2008, Promusicae (C‑275/06, EU:C:2008:54, point 53) ; du 15 septembre 2016, Mc Fadden (C‑484/14, EU:C:2016:689, point 81), ainsi que Cour EDH, Ashby Donald e.a. c. France, § 36, et Cour EDH, 19 février 2013, Neij e.a. c. Suède, p. 10 et 11. Comme le font valoir le Parlement et le Conseil, la limitation en cause répond en même temps à un objectif d’intérêt général non seulement « reconnu », mais également « poursuivi » par l’Union, à savoir la promotion de la diversité culturelle (voir considérant 2 de la directive 2019/790). En effet, la protection du droit d’auteur vise, notamment, à soutenir la création, la production et la diffusion des informations, des connaissances et de la culture (voir, notamment, considérants 9 à 11 et 14 de la directive 2001/29). Or, l’Union s’est fixée comme objectif, conformément à l’article 3, paragraphe 3, TUE, de « [veiller] à la sauvegarde et au développement du patrimoine culturel européen ».


146      Voir, notamment, arrêts du 22 janvier 2013, Sky Österreich (C‑283/11, EU:C:2013:28, point 50) ; du 15 février 2016, N. (C‑601/15 PPU, EU:C:2016:84, point 54), ainsi que du 17 décembre 2020, Centraal Israëlitisch Consistorie van België e.a. (C‑336/19, EU:C:2020:1031, point 64).


147      Voir, notamment, arrêt du 17 décembre 2020, Centraal Israëlitisch Consistorie van België e.a. (C‑336/19, EU:C:2020:1031, point 66 ainsi que jurisprudence citée).


148      Puisque, je le rappelle, les dispositions attaquées s’appliquent uniquement en ce qui concerne les œuvres et objets protégés identifiés par les titulaires de droits pour lesquels les fournisseurs de services de partage n’ont pas obtenu d’autorisation de ces derniers.


149      Voir point 53 des présentes conclusions. Le fait que tout filtrage puisse être contourné par des utilisateurs malveillants (voir, néanmoins, pour la robustesse des outils de filtrage par « empreintes », note en bas de page 65 des présentes conclusion) et s’accompagne nécessairement d’un certain taux d’erreur peut éventuellement réduire l’aptitude de ces obligations à atteindre l’objectif poursuivi, mais ne les rend pas inapte pour autant [voir arrêt du 27 mars 2014, UPC Telekabel Wien (C‑314/12, EU:C:2014:192, point 63)].


150      Voir, notamment, arrêts du 22 janvier 2013, Sky Österreich (C‑283/11, EU:C:2013:28, points 54 et 55) ; du 17 octobre 2013, Schwarz (C‑291/12, EU:C:2013:670, points 46, 52 et 53), ainsi que du 4 mai 2016, Philip Morris Brands e.a. (C‑547/14, EU:C:2016:325, point 160).


151      Voir note en bas de page 172 des présentes conclusions.


152      Voir, notamment, arrêt du 17 décembre 2020, Centraal Israëlitisch Consistorie van België e.a. (C‑336/19, EU:C:2020:1031, point 64 ainsi que jurisprudence citée).


153      Voir, par analogie, arrêt du 9 novembre 2010, Volker und Markus Schecke et Eifert (C‑92/09 et C‑93/09, EU:C:2010:662, point 85).


154      Voir, notamment, arrêt du 17 décembre 2020, Centraal Israëlitisch Consistorie van België e.a. (C‑336/19, EU:C:2020:1031, point 65 ainsi que jurisprudence citée).


155      Voir, notamment, arrêt du 9 mars 2021, VG Bild-Kunst (C‑392/19, EU:C:2021:181, point 54 ainsi que jurisprudence citée).


156      Voir considérants 1 à 7, 40, 41, 45 à 49 de la directive 2000/31, ainsi que mes conclusions dans les affaires jointes YouTube et Cyando (point 245).


157      Voir mes conclusions dans les affaires jointes YouTube et Cyando (point 246).


158      Voir, notamment, arrêt du 17 décembre 2015, Neptune Distribution (C‑157/14, EU:C:2015:823, point 76 ainsi que jurisprudence citée).


159      Voir recommandation CM/Rec(2018)2 sur les rôles et les responsabilités des intermédiaires d’internet, préambule, point 9.


160      Voir, notamment, Cour EDH, Ashby Donald e.a. c. France, § 40 ainsi que jurisprudence citée. Voir également Cour EDH, Neij e.a. c. Suède, p. 11, et Cour EDH, 11 mars 2014, Akdeniz c. Turquie, CE:ECHR:2014:0311DEC002087710, § 28. Voir, dans le même sens, arrêt du 3 février 2021, Fussl Modestraße Mayr (C‑555/19, EU:C:2021:89, points 91 à 93).


161      Voir, par analogie, Cour EDH, Neij e.a. c. Suède, p. 11.


162      Une partie de la doctrine soutient qu’il n’existe pas de preuves empiriques de l’existence du « Value Gap ». Voir, notamment, Frosio, G., « From horizontal to vertical : an intermediary liability earthquake in Europe », Journal of Intellectual Property Law & Practice, 2016, vol. 12, nº 7, p. 565 à 575, spéc. p. 567 à 569. Voir, pour un avis contraire, Bensamoun, A., « Le value gap ou le partage de la valeur dans la proposition de directive sur le droit d’auteur dans le marché unique numérique », Entertainment, Bruylant, nº 2018-4, p. 278 à 287.


163      Je précise qu’il appartient, bien entendu, au législateur de l’Union de décider du niveau auquel il entend assurer la protection du droit d’auteur et des droits voisins dans l’Union.


164      Voir analyse d’impact, partie 1/3, p. 137 à 144, 175. Voir, dans le même sens, arrêts du 13 mai 2014, Google Spain et Google (C‑131/12, EU:C:2014:317, point 80), ainsi que Glawischnig-Piesczek (points 36 et 37).


165      Voir point 14 des présentes conclusions.


166      Néanmoins, le fait que ces fournisseurs n’opèrent pas de sélection préalable des informations mises en ligne sur leurs services (voir point 32 des présentes conclusions) constitue, à mes yeux, une différence décisive, empêchant de les traiter de la même façon que les éditeurs.


167      Voir, en ce sens, recommandation CM/Rec(2018)2 sur les rôles et les responsabilités des intermédiaires d’internet, préambule, points 4 et 5, ainsi qu’annexe, point 1.3.9. Pour les hébergeurs « traditionnels », un tel régime de responsabilité ne serait pas proportionné selon moi. Il en irait de même, a fortiori, d’autres types d’intermédiaires, tels que les prestataires de services de « simple transport » (voir article 12 de la directive 2000/31).


168      Voir Cour EDH, Delfi AS c. Estonie, § 133.


169      Voir Cour EDH, Delfi AS c. Estonie, § 151, 155, 158 et 159.


170      Voir Cour EDH, Delfi AS c. Estonie, § 113, 115, 117, 128 et 145.


171      Je précise que, dans cette affaire, il s’agissait, pour l’exploitant du portail d’actualités, de surveiller ce portail à la recherche d’informations « clairement illicites ». Comme je le préciserai aux points 194 à 218 des présentes conclusions, tel est également le cas en l’occurrence.


172      Voir, notamment, Balkin, J.-M., op. cit., p. 2309, ainsi que Cour EDH, 4 juin 2020, Jezior c. Pologne, CE:ECHR:2020:0604JUD003195511, § 60 (« L’imputation [à un prestataire intermédiaire] d’une responsabilité relativement à des commentaires émanant de tiers peut [...] produire un effet dissuasif sur la liberté d’expression sur Internet »). Voir également Cour EDH, 2 février 2016, Magyar Tartalomszolgáltatók Egyesülete et Index.hu Zrt c. Hongrie, CE:ECHR:2016:0202JUD002294713, § 86, ainsi que Cour EDH, 7 février 2017, Pihl c. Suède, CE:ECHR:2017:0207DEC007474214, § 35. En revanche, dans le cadre de l’exonération de responsabilité prévue à l’article 14 de la directive 2000/31, ce risque est réduit, puisque les prestataires intermédiaires doivent uniquement retirer les informations dont l’illicéité est établie ou « apparente ».


173      Et ce d’autant plus que, d’une part, conformément à l’article 17, paragraphe 4, de la directive 2019/790, les fournisseurs de services de partage supportent la charge de la preuve de démontrer qu’ils ont fourni leurs « meilleurs efforts » pour prévenir la mise en ligne de contenus contrefaisants et que, d’autre part, ils supportent un risque considérable de responsabilité, eu égard à la « quantité importante » de contenus à laquelle ces services donnent accès.


174      Voir, notamment, arrêts du 3 septembre 2014, Deckmyn et Vrijheidsfonds (C‑201/13, EU:C:2014:2132, point 26) ; du 7 août 2018, Renckhoff (C‑161/17, EU:C:2018:634, point 43), ainsi que du 29 juillet 2019, Spiegel Online (C‑516/17, EU:C:2019:625, points 38, 42, 43 et 54). Voir également considérant 6 de la directive 2019/790.


175      Voir article 5, paragraphe 3, sous d), de la directive 2001/29, et arrêts du 29 juillet 2019, Funke Medien NRW (C‑469/17, EU:C:2019:623, points 71), ainsi que Spiegel Online (C‑516/17, EU:C:2019:625, point 57).


176      Voir article 5, paragraphe 3, sous k), de la directive 2001/29, ainsi que arrêt du 3 septembre 2014, Deckmyn et Vrijheidsfonds (C‑201/13, EU:C:2014:2132, point 25).


177      Je songe ici aux « memes », critiques de films, détournements, ainsi qu’à tout autre type de contenus à vocation divertissante ou éducative foisonnant sur ces services et qui sont, du reste, susceptibles de constituer eux-mêmes des œuvres, souvent « transformatives ».


178      Par exemple, quant à l’exception prévue à l’article 5, paragraphe 3, sous d), de la directive 2001/29, il s’agit notamment de vérifier si l’utilisateur a « [établi] un lien direct et étroit entre l’œuvre citée et ses propres réflexions et ainsi [permis] une telle confrontation intellectuelle avec l’œuvre d’autrui » [arrêt du 29 juillet 2019, Spiegel Online (C‑516/17, EU:C:2019:625, point 79)]. Concernant l’exception figurant au point k) de ce paragraphe, il s’agit de savoir si le contenu, d’une part, « [évoque] une œuvre existante, tout en présentant des différences perceptibles par rapport à celle-ci » et, d’autre part, « [constitue] une manifestation d’humour ou une raillerie » [arrêt du 3 septembre 2014, Deckmyn et Vrijheidsfonds (C‑201/13, EU:C:2014:2132, point 20)].


179      L’analyse est, en outre, complexifiée par le fait que les exceptions et limitations applicables ainsi que leur portée sont susceptibles de varier d’un droit national à l’autre. En effet, si l’énumération figurant à l’article 5 de la directive 2001/29 est exhaustive, elle donne à chaque État membre la faculté de transposer celles qu’il souhaite dans son droit interne. En outre, ces États disposent, selon les cas, d’une marge d’appréciation pour leurs mises en œuvre. Voir mes conclusions dans les affaires jointes YouTube et Cyando (point 188).


180      Voir, par analogie, mes conclusions dans les affaires jointes YouTube et Cyando (point 189).


181      Voir, en ce sens, point 52 du premier arrêt et point 50 du second arrêt. Voir également mes conclusions dans les affaires jointes YouTube et Cyando (point 243).


182      Voir point 58 des présentes conclusions.


183      Voir, notamment, document de la Commission, « Targeted consultation addressed to the participants to the stakeholder dialogue on Article 17 of the Directive on Copyright in the Digital Single Market », p. 15.


184      Voir, notamment, Grisse, K., op. cit., p. 887 ; Dusollier, S., op. cit., p. 1018, ainsi que Lambrecht, M., op. cit., p. 73. Voir également Jacques, S., Garstka, K., Hviid, M., et Street, J., « The impact on cultural diversity of Automated Anti-Piracy Systems as copyright enforcement mechanisms: an empirical study of YouTube’s Content ID digital fingerprinting technology », 2017.


185      Le droit voisin des producteurs de phonogrammes entraîne également des risques spécifiques à cet égard. Par exemple, un tel producteur peut identifier, aux fins de blocage, l’enregistrement d’une interprétation d’un nocturne de Chopin (œuvre par ailleurs tombée dans le domaine public) sur lequel il détient des droits. Dès lors que certains outils, tels que Content ID, sont à même de reconnaître non seulement les contenus reprenant des extraits de ce phonogramme, mais également ceux reprenant la même mélodie (voir note en bas de page 65 des présentes conclusions), ils sont susceptibles de bloquer automatiquement, par exemple, des vidéos d’utilisateurs se filmant en train d’interpréter eux-mêmes le nocturne en question.


186      En particulier, Content ID a déjà, semble-t-il, erronément pris, pour cette raison, des contenus innocents pour des œuvres protégées. Voir, pour divers exemples, Garstka, K., « Guiding the Blind Bloodhounds: How to Mitigate the Risks art. 17 of Directive 2019/790 Poses to the Freedom of Expression », Intellectual Property and Human Rights, Wolters Kluwer Law & Business, 4e éd., Torremans, P. (éd), 2020, p. 327 à 352, spéc. p. 332 à 334.


187      Voir, par analogie, arrêts du 22 janvier 2013, Sky Österreich (C‑283/11, EU:C:2013:28, point 61), et du 8 avril 2014, Digital Rights Ireland e.a. (C‑293/12 et C‑594/12, EU:C:2014:238, point 65).


188      Voir points 84 et 115 des présentes conclusions.


189      Voir, en ce sens, Cour EDH, Ahmet Yildirim c. Turquie, § 64 ; Cour EDH, 8 octobre 2013, Cumhuriyet Vakfi e.a. c. Turquie, CE:ECHR:2013:1008JUD002825507, § 61 ; Cour EDH, 1er décembre 2015, Cengiz e.a. c. Turquie, CE:ECHR:2015:1201JUD004822610, § 62, ainsi que Cour EDH, Kablis c. Russie, § 97. Voir également, par analogie, arrêts du 8 avril 2014, Digital Rights Ireland e.a. (C‑293/12 et C‑594/12, EU:C:2014:238, points 54, 55 et 65) ; du 21 décembre 2016, Tele2 Sverige et Watson e.a. (C‑203/15 et C‑698/15, EU:C:2016:970, point 117), ainsi que du 2 mars 2021, Prokuratuur (Conditions d’accès aux données relatives aux communications électroniques) (C‑746/18, EU:C:2021:152, point 48).


190      Voir point 84 des présentes conclusions.


191      Voir arrêt du 8 avril 2014, Digital Rights Ireland e.a. (C‑293/12 et C‑594/12, EU:C:2014:238, points 60 à 67), ainsi que conclusions de l’avocat général Cruz Villalón dans les affaires jointes Digital Rights Ireland e.a. (C‑293/12 et C‑594/12, EU:C:2013:845, points 117 et 120).


192      Voir points 210 à 213 des présentes conclusions.


193      À cet égard, j’observe que la Cour EDH a itérativement jugé que les « grands dangers » que les « restrictions préalables » résultant de mesures de blocage présentent pour la liberté d’expression appellent « l’examen le plus scrupuleux ». Voir, notamment, Cour EDH, Ahmet Yildirim c. Turquie, § 47.


194      Il faut comprendre par ces termes : les mesures de filtrage et de blocage que ces fournisseurs doivent prendre en application des dispositions attaquées. Voir considérant 66, premier alinéa, de la directive 2019/790.


195      Sont également visés, notamment, les utilisations d’œuvres et d’autres objets protégés couverts par des accords de licence conclus par les utilisateurs (voir considérant 66, premier alinéa, de la directive 2019/790) ainsi que l’utilisation des œuvres relevant du domaine public.


196      Les exceptions et limitations en question sont par ailleurs prévues, comme je l’ai indiqué aux notes en bas de page 175 et 176 des présentes conclusions, à l’article 5, paragraphe 3, sous d) et k), de la directive 2001/29.


197      Ils peuvent notamment le faire devant les juridictions nationales (voir article 17, paragraphe 9, deuxième alinéa, de la directive 2019/790 (« [...] les utilisateurs [peuvent] s’adresser à un tribunal ou à une autre autorité judiciaire compétente pour faire valoir le bénéfice d’une exception ou d’une limitation au droit d’auteur et aux droits voisins. »).


198      Voir arrêts du 29 juillet 2019, Funke Medien NRW (C‑469/17, EU:C:2019:623, point 70), ainsi que Spiegel Online (C‑516/17, EU:C:2019:625, point 54).


199      Si ce paragraphe 7 est, sur ce point, équivoque, cette interprétation ressort clairement du considérant 70 de la directive 2019/790 (« Les mesures prises par les fournisseurs de services de partage [...] devraient s’entendre sans préjudice de l’application des exceptions ou limitations au droit d’auteur [...] ») ainsi que du paragraphe 9 de cet article, notamment son quatrième alinéa (« [...] ils peuvent utiliser des œuvres et autres objets protégés dans le cadre des exceptions ou des limitations [...] prévues par le droit de l’Union ») (souligné par mes soins)].


200      Voir note en bas de page 179 des présentes conclusions.


201      À tout le moins en ce qui concerne l’utilisation des objets protégés sur les services de partage.


202      Dans cette mesure, l’article 17, paragraphe 7, de la directive 2019/790 limite la liberté d’entreprise des fournisseurs de services de partage, afin d’assurer la liberté d’expression des utilisateurs. Néanmoins, ces fournisseurs restent libres de supprimer les contenus relevant d’exceptions ou limitations pour des motifs autres que les problèmes de droits d’auteur, par exemple s’ils sont injurieux ou contreviennent à leur politique en matière de nudité. Cette disposition ne fait donc pas peser sur lesdits fournisseurs, en tant que telle, une obligation de diffuser (« must carry ») de tels contenus.


203      Voir, dans le même sens, Leistner, M., op. cit, p. 165 et 166. Toute stipulation contraire dans ces conditions générales ou de tels accords contractuels serait donc, à mes yeux, incompatible avec l’article 17, paragraphe 7, de la directive 2019/790.


204      Voir article 17, paragraphe 9, quatrième alinéa, de la directive 2019/790. L’information donnée aux utilisateurs sur leur droit d’utiliser des objets protégés dans le cadre d’exception et limitation, ainsi que sur les limites de ce droit, est essentielle pour soutenir l’exercice, par ces derniers, de leur liberté d’expression et de création, tout en réduisant le risque d’atteintes fortuites aux droits d’auteur.


205      Voir analyse d’impact, partie 1/3, p. 140 et 141, ainsi que note en bas de page 422.


206      Voir considérant 70, premier alinéa, de la directive 2019/790.


207      « shall not result », dans la version en langue anglaise de la directive 2019/790.


208      Le gouvernement français évoque également d’éventuelles mesures volontaires prises par les titulaires de droits (voir note en bas de page 252 des présentes conclusions).


209      Pour la première, comme je l’ai évoqué au point 166 des présentes conclusions, le fait que les droits des utilisateurs des services de partage ne soient pris en compte qu’ex post, en cas de plainte de ces utilisateurs, démontrerait le caractère disproportionné de la limitation à l’exercice du droit à la liberté d’expression. En revanche, pour les seconds, cette interprétation maintiendrait un « juste équilibre » entre les droits et intérêts en jeu, dès lors qu’elle assurerait aux titulaires de droits la capacité de contrôler a priori l’utilisation de leurs œuvres et autres objets protégés tout en ne causant qu’un « inconvénient temporaire » à ces mêmes utilisateurs.


210      Cela est encore plus flagrant dans la version en langue anglaise de la directive 2019/790 (« [...] shall not result in the prevention of the availability [...] ») (souligné par mes soins). En outre, selon moi, ce paragraphe 7 concrétise le droit à la liberté d’expression, de sorte que ses termes se prêtent une interprétation large. Voir, par analogie, arrêt du 14 février 2019, Buivids (C‑345/17, EU:C:2019:122, point 51 et jurisprudence citée).


211      « [...] Les mesures prises par ces fournisseurs de services ne devraient [...] pas affecter les utilisateurs qui utilisent les services de partage [...] afin de téléverser de manière licite des informations sur ces services [...] »


212      Voir, d’une part, « Report on the proposal for a directive of the European Parliament and of the Council on copyright in the Digital Single Market », 29 juin 2019, Parlement, Comité des affaires juridiques, document A8-0245/2018 (accessible à l’adresse https://www.europarl.europa.eu/doceo/document/A-8-2018-0245_EN.html?redirect), amendement 77 : « [...] To prevent misuses or limitations in the exercise of exceptions and limitations to copyright, Member States shall ensure that the service providers referred to in paragraph 1 put in place effective and expeditious complaints and redress mechanisms [...] ». Voir, d’autre part, Conseil, document 12254/16 + ADD1 + ADD2 + ADD3 + ADD4, 25 mai 2018 (accessible à l’adresse https://www.consilium.europa.eu/media/35373/st09134-en18.pdf) : « Member States shall ensure that the measures referred to in paragraph 4 are implemented by the online content sharing service provider without prejudice to the possibility for their users to benefit from exceptions or limitations to copyright. For that purpose, the service provider shall put in place a complaint and redress mechanism [...] » (souligné par mes soins).


213      Voir, par analogie, conclusions de l’avocat général Wathelet dans l’affaire Karen Millen Fashions (C‑345/13, EU:C:2014:206, point 82) ainsi que mes conclusions dans les affaires jointes Acacia et D’Amato (C‑397/16 et C‑435/16, EU:C:2017:730, points 53 et 63 à 65).


214      À cet égard, je rappelle que, conformément à une jurisprudence constante de la Cour, « un texte du droit dérivé de l’Union doit être interprété, dans la mesure du possible, d’une manière qui ne remette pas en cause sa validité et en conformité avec l’ensemble du droit primaire et, notamment, avec les dispositions de la Charte » (voir, notamment, arrêt du 2 février 2021, Consob (C‑481/19, EU:C:2021:84, point 50 ainsi que jurisprudence citée).


215      En effet, la directive 2000/31 ne contient aucune obligation, pour les prestataires intermédiaires, de prévoir une procédure de « contre-notification » permettant aux utilisateurs de contester le « sur-retrait » de leurs informations.


216      D’ailleurs, dans la version en langue anglaise de la directive 2019/790, le même adjectif est utilisé à l’article 17, paragraphe 4, sous c), et au paragraphe 9, premier alinéa, de cette directive (« acted expeditiously, upon receiving a [...] notice [...] » et « [...] an effective and expeditious complaint and redress mechanism [...] ») (souligné par mes soins).


217      Arrêt du 27 mars 2014 (C‑314/12, EU:C:2014:192, point 57).


218      Voir, d’une part, arrêts du 27 mars 2014, UPC Telekabel Wien (C‑314/12, EU:C:2014:192, point 56), et du 15 septembre 2016, Mc Fadden (C‑484/14, EU:C:2016:689, point 93). Voir, d’autre part, Cour EDH, 23 juin 2020, Vladimir Kharitonov c. Russie, CE:ECHR:2020:0623JUD001079514, § 46 : « [...] When exceptional circumstances justify the blocking of illegal content, a State agency making the blocking order must ensure that the measure strictly targets the illegal content and has no arbitrary or excessive effects [...]. Any indiscriminate blocking measure which interferes with lawful content or websites as a collateral effect of a measure aimed at illegal content or websites amounts to arbitrary interference with [freedom of expression]. [...] ». Voir encore recommandation CM/Rec(2018)2 sur les rôles et les responsabilités des intermédiaires d’internet, annexe, point 2.3.2.


219      Arrêt du 12 juillet 2011 (C‑324/09, EU:C:2011:474, point 131).


220      Arrêt du 27 mars 2014 (C‑314/12, EU:C:2014:192, point 63).


221      Voir, notamment, Cour EDH, Ahmet Yildirim c. Turquie, § 66 ; Cour EDH, 23 juin 2020, Vladimir Kharitonov, CE:ECHR:2020:0623JUD001079514, § 45, ainsi que Cour EDH, Kablis c. Russie, § 94.


222      Voir, en ce sens, arrêt Scarlet Extended (point 52 : « [l’injonction de filtrage] risquerait de porter atteinte à la liberté d’information puisque ce système risquerait de ne pas suffisamment distinguer entre un contenu illicite et un contenu licite, de sorte que son déploiement pourrait avoir pour effet d’entraîner le blocage de communications à contenu licite. En effet, il n’est pas contesté que la réponse à la question de la licéité d’une transmission dépende également de l’application d’exceptions légales au droit d’auteur qui varient d’un État membre à l’autre. En outre, certaines œuvres peuvent relever, dans certains États membres, du domaine public ou elles peuvent faire l’objet d’une mise en ligne à titre gratuit de la part des auteurs concernés ») (souligné par mes soins). Voir, pour le même raisonnement, arrêt SABAM (point 50).


223      Cette tendance des utilisateurs à ne pas faire valoir leurs droits est documentée, en Europe comme aux États-Unis. Voir, notamment, Urban, J.-M., Karaganis, J., et Schofield, B., « Notice and Takedown in Everyday Practice », UC Berkeley Public Law Research Paper nº 2755628, 2017 ; Fiala, L., Husovec, M., « Using Experimental Evidence to Design Optimal Notice and Takedown Process », TILEC Discussion Paper Nº 2018-028, 2018, p. 3.


224      Voir, dans le même sens, Spindler, G., op. cit., p. 355. Cela risquerait également d’avoir pour effet de priver le public de son droit d’accès à ces contenus légitimes injustement bloqués.


225      Par exemple, une « vidéo de réaction » (reaction video) à une bande-annonce d’un jeu vidéo ou d’un film est recherchée autour du moment où cette bande-annonce est publiée. De même, une vidéo parodique liée à un scandale politique récent est, en règle générale, regardée juste après ce scandale. Voir, à cet égard, Garstka, K., op. cit., p. 339.


226      D’ailleurs, la Cour EDH a itérativement jugé que « l’information est un bien périssable et en retarder la publication, même pour une brève période, risque fort de la priver de toute valeur et de tout intérêt » (voir notamment Cour EDH, 26 novembre 1991, Observer et Guardian c. Royaume-Uni, CE:ECHR:1991:1126JUD001358588, § 60 ; Cour EDH, Ahmet Yildirim c. Turquie, § 47 ; ainsi que Cour EDH, Kablis c. Russie, § 91). Les gouvernements espagnol et français rétorquent que la rapidité de l’échange d’information en ligne justifierait, au contraire, de bloquer préventivement tous les contenus reproduisant les œuvres et autres objets protégés identifiés par les titulaires de droits, afin d’éviter tout risque que des contenus illicites soient mis en ligne et qu’il en résulte des dommages « irréparables » pour lesdits titulaires. Je reviendrai sur cet argument aux points 215 et 216 des présentes conclusions.


227      Voir, notamment, arrêts du 29 juillet 2019, Funke Medien NRW (C‑469/17, EU:C:2019:623, points 51 et 57), et Spiegel Online (C‑516/17, EU:C:2019:625, points 36, 55 et 72).


228      Voir mes conclusions dans les affaires jointes YouTube et Cyando (point 243).


229      J’ai bien conscience du fait que le considérant 66 de la directive 2019/790 indique, à son troisième alinéa, que les fournisseurs de services de partage ne pourraient être exonérés de leur responsabilité, en cas de mise en ligne illicite d’un objet protégé sur leur service, qu’en démontrant qu’ils ont « tout mis en œuvre pour éviter cette situation ». Il s’agit là, à mon avis, d’une formulation malheureuse, qui ne saurait remettre en cause ce que je viens d’expliquer.


230      Voir note en bas de page 249 des présentes conclusions.


231      Voir, par contraste, Cour EDH, Ahmet Yildirim c. Turquie, § 66.


232      J’ai expliqué le caractère fondamental de l’interdiction des « obligations générales de surveillance » pour la liberté de communication en ligne dans le cadre de la section relative au « contenu essentiel » de la liberté d’expression (points 98 et suiv. des présentes conclusions).


233      Voir point 112 des présentes conclusions.


234      Arrêt Glawischnig-Piesczek (point 35).


235      Arrêt Glawischnig-Piesczek (point 46).


236      Voir considérant 59 de la directive 2001/29, aux termes duquel « [d]ans de nombreux cas, [l]es intermédiaires sont les mieux à même de mettre fin [aux] atteintes [commises par le truchement de leurs services] ».


237      Voir points 142, 143 et 146 des présentes conclusions.


238      Voir mes conclusions dans les affaires jointes YouTube et Cyando (points 187 et 188).


239      Voir, en ce sens, recommandation 2018/334 (considérant 25 :« Il peut notamment être adéquat de prendre de telles mesures proactives lorsque le caractère illicite du contenu a déjà été établi ou lorsque le type de contenu est tel qu’il n’est pas nécessaire de le contextualiser »), ainsi que recommandation CM/Rec(2018)2 sur les rôles et les responsabilités des intermédiaires d’internet (annexe, point 1.3.2 : « Pour exiger d’un intermédiaire la restriction de l’accès à des contenus, les autorités nationales devraient obtenir une ordonnance d’une autorité judiciaire [...]. Cela ne s’applique pas aux cas concernant des contenus illégaux quel que soit le contexte, comme les contenus portant sur des abus sexuels d’enfants, ou dans les cas où des mesures expéditives s’imposent, conformément aux conditions prescrites à l’article 10 de la Convention ») (souligné par mes soins).


240      La Cour EDH a insisté sur le fait qu’il s’agissait de commentaires « clairement illicites », « [s’analysant] au premier coup d’œil en une incitation à la haine ou à la violence » de sorte qu’« il n’était pas nécessaire de les soumettre à une analyse linguistique ou juridique pour établir qu’ils étaient illicites » (voir notamment § 110, 114, 115, 117, 140 et 155 de cet arrêt).


241      Voir Cour EDH, 7 février 2017, Pihl c. Suède, CE:ECHR:2017:0207DEC007474214, § 25 ; Cour EDH, 19 mars 2019, Hoiness c. Norvège, CE:ECHR:2019:0319JUD004362414, § 68 ; Cour EDH, 2 février 2016, Magyar Tartalomszolgáltatók Egyesülete et Index.hu Zrt c. Hongrie, CE:ECHR:2016:0202JUD002294713, § 63 et 64, ainsi que Cour EDH, 4 juin 2020, Jezior c. Pologne, CE:ECHR:2020:0604JUD003195511, § 54 et 58.


242      Voir point 221 de ces conclusions.


243      Voir, dans le même sens, Quintais, J., Frosio G., van Gompel, S., e.a., « Safeguarding User Freedoms in Implementing Article 17 of the Copyright in the Digital Single Market Directive: Recommendations From European Academics », JIPITEC, 2019, vol. 10, nº 3 ; Lambrecht, M., op. cit., p. 88 à 90 ; Cabay, J., op. cit., p. 237 à 273, ainsi que Dusollier, S., op. cit., p. 1020. Cette interprétation ressort, du reste, d’une lecture naturelle du libellé de l’article 17, paragraphe 4, sous b) et c), de la directive 2019/790 qui impose aux fournisseurs de services de partage de garantir l’indisponibilité d’« œuvres » et d’autres « objets », et non pas de n’importe quelle contrefaçon impliquant, de près ou de loin, les objets en question (voir, dans le même sens, Lambrecht, M. op. cit., p. 89).


244      En d’autres termes, je vise ce qui est parfois désigné comme les copies « serviles » et « quasi serviles ». À cet égard, j’observe qu’une partie des contenus présents sur les services de partage consiste, précisément, en des copies serviles ou quasi serviles d’œuvres ou d’autres objets protégés, tels que des œuvres cinématographiques ou des phonogrammes.


245      Arrêt Glawischnig-Piesczek (point 46). Je précise que, selon moi, la Cour, dans cet arrêtn’a pas entendu exclure la nécessité de certains contrôles par des personnes humaines. J’y reviendrai au point 211 des présentes conclusions.


246      Selon moi, les informations « pertinentes et nécessaires » fournies par les titulaires de droits devraient inclure des éléments de nature à démontrer qu’ils détiennent des droits sur les œuvres ou autres objets protégés dont ils demandent le blocage, afin de limiter le risque d’une telle « sur-réclamation » (voir point 148 des présentes conclusions).


247      Cette interprétation ne saurait être remise en cause par l’argument de la requérante et du gouvernement français selon lequel le terme « manifeste » ne figure pas dans le texte de la directive 2019/790. En effet, il ne s’agit pas d’une notion substantielle, mais simplement du degré de contrôle que doivent effectuer les fournisseurs de services de partage. Ce degré de contrôle se déduit de l’article 17, paragraphe 8, de cette directive et de la nécessité de mettre en œuvre les dispositions attaquées d’une manière qui respecte le paragraphe 7 de cet article. En outre, contrairement à ce que soutient le gouvernement français, la différence entre les informations dont l’illicéité apparaît au premier coup d’œil et celles qui nécessitent davantage d’examen n’est pas une idée nouvelle. À cet égard, je me bornerai à rappeler que, dans le contexte de l’article 14 de la directive 2000/31, un prestataire intermédiaire doit retirer une information lorsqu’il a « effectivement connaissance » de son caractère illicite, ou lorsque son caractère illicite est « apparent » compte tenu des éléments dont il dispose. Il s’agit, en l’occurrence, de la même idée. Je renvoie également au raisonnement adopté par la Cour EDH dans son arrêt Delfi A.S. c. Estonie. Enfin, l’idée de contrefaçon manifeste, comprise comme la copie « servile » ou « quasi servile », est déjà connue.


248      Voir point 52 des présentes conclusions. Voir, dans le même sens, Geiger, C., Jütte, B.-J., « Platform liability under Article 17 of the Copyright in the Digital Single Market Directive, Automated Filtering and Fundamental Rights: An Impossible Match », SSRN Papers (accessible à l’adresse https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3776267), p. 44.


249      De manière générale, il revient aux autorités administratives et judiciaires de ces États de superviser l’application des dispositions attaquées par les fournisseurs de services de partage, et de veiller à ce que les utilisateurs puissent effectivement se prévaloir de leur droit aux utilisations légitimes, conformément à l’article 17, paragraphe 7, de la la directive 2019/790. Sur ce point, la République de Pologne a fait valoir que cette directive ne contient aucune disposition relative à la responsabilité des fournisseurs de services de partage à l’égard des utilisateurs en cas de violation de ce paragraphe 7. Selon moi, cette responsabilité doit être trouvée dans le droit national des États membres, dans le respect du principe de l’autonomie procédurale. D’autres sanctions effectives, dissuasives et proportionnées devraient y être prévues. En outre, puisque le respect des droits des utilisateurs s’incorpore aux « meilleurs efforts » devant être déployés par les fournisseurs de services de partage, il s’ensuit que, si un tel fournisseur ne respectait pas les droits en question, il devrait perdre le bénéfice du mécanisme d’exonération prévu au paragraphe 4 de cet article.


250      En effet, les outils de reconnaissance par « empreintes » sont capables de faire des distinctions en fonction de la quantité de contenus protégés réutilisée dans un contenu mis en ligne, s’agissant notamment des contenus audio et vidéo. Certes, comme le fait valoir le gouvernement français, il ne suffit pas, par exemple, qu’un extrait musical soit inférieur à une certaine durée pour que l’exception de citation soit applicable, dès lors que cela dépend de l’intention de l’utilisateur (voir note en bas de page 178 des présentes conclusions). Toutefois, il s’agit simplement de ménager, dans le paramétrage de l’outil de filtrage, une marge dans laquelle l’application de cette exception apparaît non pas certaine, mais simplement raisonnablement envisageable.


251      À cet égard, l’approche expliquée par la Commission dans son document « Targeted consultation addressed to the participants to the stakeholder dialogue on Article 17 of the Directive on Copyright in the Digital Single Market » est, à mes yeux, une bonne manière de procéder (voir p. 15 et 16 de ce document). Voir, pour des propositions proches, Quintais, J., Frosio G., van Gompel, S., e.a., op. cit. ; Lambrecht, M., op. cit., p. 79 à 94, ainsi que Leitsner, M., op. cit., p. 193 à 208. Des dispositifs anti-abus pourraient également être prévus par les États-membres. Il n’est pas nécessaire, dans la présente affaire, de prendre une position plus précise sur ces différentes propositions.


252      Le gouvernement français fait valoir que la mise en œuvre des outils de reconnaissance repose sur des règles de gestion paramétrées par les titulaires de droits et que, par exemple, dans le domaine du cinéma, ces derniers toléreraient, généralement contre une partie des recettes liées à la « monétisation » de la vidéo concernée (voir point 58 des présentes conclusions), la mise en ligne d’extraits de plusieurs minutes de leurs films. Certes, l’idée selon laquelle le respect des exceptions et limitations pourrait être assuré par des mesures volontaires prises par les titulaires de droits n’est pas étrangère au droit de l’Union (voir article 6, paragraphe 4, de la directive 2001/29, relatif aux mesures techniques de protection). Néanmoins, j’estime que dans un contexte de filtrage tel que celui résultant des dispositions attaquées, eu égard aux risques que j’ai décrits, la protection des droits des utilisateurs ne devrait pas reposer sur la seule volonté de ces mêmes titulaires.


253      Selon moi, ces orientations, en définissant ces « meilleurs pratiques », participeront à établir les « normes élevées du secteur en matière de diligence professionnelle » que les fournisseurs doivent respecter, conformément aux dispositions attaquées. Le cas échéant, lesdites orientations devront être mises à jour afin de suivre « l’évolution de l’état de l’art ».


254      Voir, dans le même sens, Grisse, K., op. cit., p. 898.


255      Je songe, par exemple, à la mise en ligne illicite, sur un service de partage, d’un film récemment, voire pas encore, sorti en salles.


256      Voir, dans le même sens, Lambrecht, M., op. cit., p. 89 et 90.


257      Voir, notamment, arrêt du 27 mars 2014, UPC Telekabel Wien (C‑314/12, EU:C:2014:192, point 61 ainsi que jurisprudence citée).


258      Il ne s’agit notamment pas de prévoir un seuil de minimis en dessous duquel les titulaires perdraient toute possibilité de faire valoir leurs droits. L’existence d’un tel seuil a toujours été rejetée par la Cour. Voir, à cet égard, conclusions de l’avocat général Szpunar dans l’affaire Pelham e.a. (C‑476/17, EU:C:2018:1002, points 28 à 33).


259      Cela est, en outre, sans préjudice de la possibilité, pour les titulaires de droits, d’obtenir une injonction judiciaire (voir considérant 66, premier alinéa, de la directive 2019/790), voire d’intenter une action contre l’utilisateur responsable.


260      Voir, dans le même sens, Cabay, J., op. cit., p. 221, et Lambrecht, M., op. cit., p. 90. Dans ce cadre, une solution pratique pourrait consister à informer les titulaires de droits aussitôt qu’un contenu reproduisant leurs objets protégés est mis en ligne, afin qu’ils puissent, le cas échéant, rapidement préparer une demande motivée de blocage (voir article 17, paragraphe 9, deuxième alinéa, de la directive 2019/790). Lesdits titulaires n’auraient ainsi, en tout hypothèse, pas la charge de surveiller eux-mêmes les services de partage afin de découvrir et de localiser les contenus en cause, qui seraient détectés automatiquement pour eux par l’outil de reconnaissance.


261      J’observe d’ailleurs que, pour les contenus dont l’illicéité ne peut pas être considérée comme manifeste, la Cour EDH a considéré le système de « notification et retrait » comme un moyen approprié pour maintenir un « juste équilibre » entre les droits et intérêts en jeu, dès lors que ces notifications permettent, précisément, d’apporter aux prestataires les éléments de contexte nécessaires pour constater le caractère illicite du contenu. Voir, notamment, Cour EDH, Magyar Tartalomszolgáltatók Egyesülete et Index.hu Zrt c. Hongrie, CE:ECHR:2016:0202JUD002294713,, § 91.


262      Voir, par analogie, mes conclusions dans les affaires jointes YouTube et Cyando (point 190). Les fournisseurs de services de partage ne pourront donc pas se borner à approuver toutes les demandes de blocage qu’ils reçoivent des titulaires de droits sans vérification.


263      « [...] il ne peut [...] être exclu que dans certains cas, la disponibilité de contenus non autorisés protégés par le droit d’auteur ne puisse être évitée que sur notification des titulaires de droits. »


264      Et, comme je l’ai indiqué au point 178 des présentes conclusions, les fournisseurs de services de partage devront examiner ces plaintes et notifications avec la même promptitude – et la même diligence.


265      Je souhaitais souligner un dernier point. Les parties défenderesses et les intervenants ont mis en avant le fait que la principale manière, pour un fournisseur de services de partage, d’échapper à toute responsabilité pour les œuvres et les autres objets protégés mis en ligne sur son service consiste, conformément à l’article 17, paragraphe 1, de la directive 2019/790 à obtenir une autorisation des titulaires de droits. Dans ce contexte, le mécanisme d’exonération de responsabilité prévu au paragraphe 4 de cet article – et les obligations de filtrage qui en découlent – ne concerneront, en toute hypothèse, que les œuvres et les autres objets protégés pour lesquels une telle autorisation n’a pas été obtenue. À mes yeux, s’il ne s’agit pas, à proprement parler, d’une « garantie » encadrant ce filtrage, ce point est important pour la liberté d’expression des utilisateurs de ces services, et ce d’autant plus que, conformément à l’article 17, paragraphe 2, de la directive 2019/790, ces autorisations couvriront également, dans certaines conditions, les actes de « communication au public » accomplis par ces utilisateurs. Je partage donc l’avis de la Commission selon lequel les États membres devraient prévoir, dans leur droit national, des mécanismes visant à faciliter l’octroi de telles autorisations. Plus ces autorisations pourront être obtenues par les fournisseurs de partage, plus les titulaires de droits obtiendront une rémunération appropriée pour l’utilisation de leurs objets protégés, et moins les utilisateurs auront à subir de mesures de filtrage et de blocage de leurs contenus.


266      Arrêt du 22 juin 2021 (C‑682/18 et C‑683/18, EU:C:2021:503).


267      Voir arrêt du 22 juin 2021, YouTube et Cyando (C‑682/18 et C‑683/18, EU:C:2021:503, point 59).


268      Voir communication de la Commission, « Guidance on Article 17 of Directive 2019/790 on Copyright in the Digital Single Market », spéc. p. 18 à 24.


269      La Commission évoque les objets qui ont une valeur économique particulière pendant une certaine période. Néanmoins, le mécanisme de « réservation » ne semble pas limité à ces objets. Les orientations ne définissent pas non plus la notion de « préjudice économique significatif ». Je rappelle que, selon le gouvernement français, en cas de mise en ligne d’un contenu contrefaisant, le préjudice économique subi par les titulaires de droits serait toujours « irréparable ».