La responsabilité des intermédiaires mise sens dessus-dessous par l’arrêt Facebook
Publié le 14/10/2019 par Etienne Wery , Thierry Léonard, Maud Cock
La CJUE a rendu un arrêt militant en matière de responsabilité des intermédiaires. Malgré l’interdiction de leur imposer une surveillance générale, elle estime qu’un hébergeur peut, dans un cas particulier, se voir enjoint de collaborer activement à l’identification et la suppression de contenus équivalents au contenu illicite initial. C’est une révolution qui s’annonce pour les hébergeurs qui vont devoir mettre en place des procédures internes ad hoc.
Les faits
Une députée autrichienne se plaint de voir un utilisateur de Facebook partager sur sa page personnelle un article d’un magazine d’information autrichien parlant d’elle, mais profitant surtout de l’occasion pour publier un commentaire rédigé dans des termes qui seront plus tard jugés illicites par le juge national autrichien.
La députée s’adresse à Facebook, qui refuse.
L’affaire arrive en justice et rapidement, vu la propagation du message litigieux, le débat se focalise sur une question essentielle pour les réseaux sociaux : quand un message est jugé illicite, la victime doit-elle adresser une nouvelle requête à Facebook chaque fois qu’il est partagé ou repris, ce qui revient à vider l’océan avec un seau, ou le réseau doit-il prêter son concours pour détecter les messages identiques et les supprimer aussi ?
- Le juge de première instance rend ordonnance de référé du 7 décembre 2016 qui adopte la vision « extensive » : Facebook doit cesser la publication et/ou la diffusion du contenu illicite mais aussi des messages contenant les mêmes allégations ou des allégations de contenu équivalent au premier.
- Le juge d’appel confirme l’ordonnance s’agissant des allégations identiques, mais il infirme en ce qui concerne la diffusion d’allégations de contenu équivalent : pour celles-ci, Facebook ne doit agir que si ces contenus sont portés à sa connaissance par la requérante au principal, par des tiers ou d’une autre manière.
- L’affaire aboutit devant une cour supérieure qui décide d’interroger la CJUE sur la portée de la directive sur le commerce électronique.
La question posée
En substance la question consiste à déterminer, une fois le caractère illicite du commentaire établi, la portée l’injonction de retrait :
- Limite matérielle : l’injonction se limite-t-elle au message illicite à tout autre identique ou équivalent ?
- Limite personnelle : l’injonction peut-elle viser des autres utilisateurs que l’auteur du post originel ?
- Limite territoriale : l’injonction peut-elle être ordonnée au nouveau mondial ?
Ces questions ont justifié la saisine de la CJUE par la Cour suprême autrichienne.
Le statut des hébergeurs
Pour rappel, les intermédiaires bénéficient d’un régime favorable de responsabilité instauré par la directive 2000/31 relative au commerce électronique. Ce régime dérogatoire vise à concilier la neutralité du net, la liberté d’expression mais aussi la lutte contre les contenus illicites en ligne.
En vertu de ce régime, l’hébergeur (c’est-à-dire celui qui fournit un service de la société de l’information consistant à stocker des informations fournies par un destinataire du service), n’est pas responsable des informations stockées à la demande d’un destinataire du service.
Deux conditions sont instituées pour bénéficier de cette exonération :
- l’hébergeur n’a pas effectivement connaissance de l’activité ou de l’information illicites ;
- l’hébergeur, dès le moment où il a de telles connaissances, agit promptement pour retirer les informations ou rendre l’accès à celles-ci impossible.
La directive précise aussi que les États membres ne doivent pas imposer aux hébergeurs une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites.
Toutefois, précise la directive, ce statut favorable n’empêche pas qu’une juridiction (ou une autorité administrative) puisse exiger de l’hébergeur qu’il mette un terme à une violation ou qu’il prévienne une violation : il n’empêche pas non plus les États membres d’instaurer des procédures régissant le retrait de ces informations ou les actions pour en rendre l’accès impossible.
Concilier l’absence de surveillance et les injonctions ?
Depuis 15 ans, la directive laisse la doctrine dans le doute :
- D’un côté, les hébergeurs n’ont pas d’obligation générale de surveiller les informations qu’ils transmettent ou stockent ; ils n’ont pas plus d’obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites. Tout cela suggère une attitude passive.
- D’un autre côté une juridiction peut exiger de l’hébergeur qu’il mette un terme à une violation ou qu’il la prévienne ce qui suggère une attitude active.
Comment concilier ces deux logiques a priori contraires ?
La Cour rappelle d’abord que les États membres disposent d’un pouvoir d’appréciation particulièrement important à l’égard des recours et des procédures permettant l’adoption des mesures nécessaires visant à mettre un terme à toute violation alléguée et à prévenir toute nouvelle atteinte aux intérêts concerné.
Elle souligne toutefois que l’interdiction d’imposer aux hébergeurs une obligation générale de surveillance ne concerne pas les obligations de surveillance « applicables à un cas spécifique ». Selon elle, un tel cas spécifique peut notamment trouver son origine, comme dans l’affaire au principal, dans une information précise, stockée par l’hébergeur concerné à la demande d’un certain utilisateur de son réseau social, dont le contenu a été analysé et apprécié par une juridiction compétente de l’État membre qui, à l’issue de son appréciation, l’a déclarée illicite.
Supprimer d’initiative les contenus “identiques” ?
La Cour souligne qu’un réseau social facilite la transmission rapide des informations stockées par l’hébergeur entre ses différents utilisateurs, de sorte qu’il existe un risque réel de voir une information ayant été qualifiée d’illicite être ultérieurement reproduite et partagée par un autre utilisateur de ce réseau. Cet attendu risque de faire parler de lui car les hébergeurs qui ne présentent pas cette caractéristique pourraient s’en saisir pour limiter la portée de l’arrêt.
Toujours-est-il que dans l’affaire qui lui est soumise, la Cour conclut qu’afin de pouvoir obtenir de l’hébergeur en cause qu’il prévienne toute nouvelle atteinte aux intérêts concernés, il est légitime que la juridiction compétente puisse exiger de cet hébergeur qu’il bloque l’accès aux informations stockées, dont le contenu est identique à celui déclaré illicite antérieurement, ou qu’il retire ces informations, quel que soit l’auteur de la demande de stockage de celles-ci.
Afin de prévenir la critique quant à l’absence d’obligation générale de surveillance, la Cour précise que c’est eu « eu égard, en particulier, à cette identité de contenu des informations concernées », que l’injonction délivrée à cet effet ne saurait être considérée comme instituant à la charge de l’hébergeur une obligation de surveiller, de manière générale, les informations qu’il stocke, ni une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites.
Supprimer d’initiative les contenus “similaires” ?
Le premier juge national avait élargi l’injonction au contenu équivalent à celui jugé illicite, c’est-à-dire « des informations véhiculant un message dont le contenu reste, en substance, inchangé et, dès lors, diverge très peu de celui ayant donné lieu au constat d’illicéité ».
La directive permet-elle cela ?
La Cour refuse de s’en tenir aux mots utilisés : pour elle c’est le fond qui compte le plus : l’illicéité du contenu d’une information résulte non pas en soi de l’emploi de certains termes, combinés d’une certaine manière, mais du fait que le message véhiculé par ce contenu est qualifié d’illicite, s’agissant, comme en l’occurrence, de propos diffamatoires visant une personne précise.
Pour la Cour, il en découle que si l’on veut donner un effet utile à l’injonction, elle « doit pouvoir s’étendre aux informations dont le contenu, tout en véhiculant en substance le même message, est formulé de manière légèrement différente, en raison des mots employés ou de leur combinaison, par rapport à l’information dont le contenu a été déclaré illicite. À défaut, en effet, et ainsi que le souligne la juridiction de renvoi, les effets s’attachant à une telle injonction pourraient aisément être contournés par le stockage de messages à peine différents de ceux qui ont été déclarés illicites précédemment, ce qui pourrait conduire la personne concernée à devoir multiplier les procédures aux fins d’obtenir la cessation des agissements dont elle est victime ».
La Cour se retrouve coincée entre l’effet utile qu’elle souhaite donner à l’injonction, et l’interdiction d’imposer une surveillance générale qui risque bien d’être incompatible avec l’analyse éventuelle, par l’ »hébergeur, des contenus équivalents.
Pour la Cour, la réponse est dans la qualité de la rédaction de l’injonction : il importe dit-elle que « les informations équivalentes (…) comportent des éléments spécifiques dûment identifiés par l’auteur de l’injonction, tels que le nom de la personne concernée par la violation constatée précédemment, les circonstances dans lesquelles cette violation a été constatée ainsi qu’un contenu équivalent à celui qui a été déclaré illicite. Des différences dans la formulation de ce contenu équivalent, par rapport au contenu déclaré illicite, ne doivent pas, en tout état de cause, être de nature à contraindre l’hébergeur concerné à procéder à une appréciation autonome dudit contenu ».
La Cour est d’avis qu’une injonction qui imposerait sur le principe la suppression des contenus équivalents tout en donnant à l’hébergeur les éléments nécessaires à cette analyse, ne violerait pas l’interdiction d’imposer une surveillance générale « dans la mesure où la surveillance et la recherche qu’elle requiert sont limitées aux informations contenant les éléments spécifiés dans l’injonction et où leur contenu diffamatoire de nature équivalente n’oblige pas l’hébergeur à procéder à une appréciation autonome, ce dernier pouvant, ainsi, recourir à des techniques et à des moyens de recherche automatisés. »
Des injonctions mondiales ?
Selon la Cour, la directive 2000/31 ne prévoit aucune limitation, notamment territoriale, à la portée des mesures que les États membres sont en droit d’adopter.
Elle précise toutefois que, compte tenu de la dimension mondiale du service électronique, le législateur de l’Union a considéré qu’il était nécessaire d’assurer la cohérence des règles de l’Union dans ce domaine avec les règles applicables au niveau international. En conséquence, il est du ressort des Etats Membres de veiller à ce que les mesures qu’ils adoptent et qui produisent des effets à l’échelle mondiale tiennent dûment compte de ces dernières règles. En d’autres mots, la question n’est pas réglée par le droit de l’Union mais par les règles de droit international public/privé.
L’arrêt est, sur ce point crucial sur le plan pratique, un peu décevant. La Cour semble renvoyer la patate chaude aux États alors qu’elle avait une occasion rêvée de fixer à tout le moins de grands principes. On risque bien d’arriver très vite à des divergences jurisprudentielles qui tiennent autant au droit qu’aux traditions. Rappelons que dans l’arrêt Google rendu le 23 septembre dernier, la Cour s’est penchée bien plus précisément sur la portée géographique du droit à l’oubli.
Un Avocat général plus prudent
Si l’AG plaidait en faveur d’injonctions quant à des contenus identiques, celui-ci se montrait nettement plus prudent quant aux injonctions visant des contenus équivalents.
Au vu d’une conciliation avec l’article 15 de la directive, l’AG Szpunar invitait, en effet, à limiter ce type d’injonctions aux contenus publiés par le même utilisateur que le contenu initial et avec une possibilité de contestation devant un juge des mesures d’exécution adoptées par un hébergeur au cours de la mise en œuvre de l’injonction.
Plus encore, pour l’AG, le juge doit garantir que les effets de son injonction sont clairs, précis et prévisibles, et ce faisant, doit mettre en balance les droits fondamentaux en présence et tenir compte du principe de proportionnalité.
Selon lui, étendre ce type d’injonctions à d’autres utilisateurs (voir son avis) :
- nécessiterait la surveillance de la totalité des informations diffusées au moyen d’une plateforme de réseau social,
- à la différence des informations identiques, les informations équivalentes ne peuvent pas être identifiées sans qu’un hébergeur recoure à des solutions sophistiquées. En conséquence, le rôle d’un prestataire exerçant une surveillance générale ne serait plus neutre,
- n’assurerait pas un juste équilibre entre la protection de la vie privée et des droits de la personnalité, celle de la liberté d’entreprise, ainsi que celle de la liberté d’expression et d’information. D’une part, la recherche et l’identification de telles informations nécessiteraient des solutions coûteuses, qui devraient être développées et introduites par un hébergeur. D’autre part, la mise en œuvre de ces solutions conduirait à une censure, de sorte que la liberté d’expression et d’information serait susceptible d’être systématiquement restreinte.
Il estime, par contre, qu’un hébergeur peut être contraint de retirer des informations équivalant à celle ayant été qualifiée d’illicite, si cette obligation découle d’une prise de connaissance résultant de la notification effectuée par la personne concernée, les tiers ou une autre source. Dans un tel cas, il n’ y a pas d’obligation générale de surveillance.
Commentaire
Cet arrêt confirme la légalité, en matière de diffamation, d’injonctions de retrait visant non seulement une atteinte identifiée mais également des atteintes futures de même nature.
Comme le rappelle l’AG, la CJUE a déjà eu l’occasion de statuer sur la comptabilité de ce type d’injonctions avec la directive commerce électronique en matière d’atteinte au droit des marques. En son arrêt L’Oréal c. eBay, la Cour valide les injonctions faites à l’exploitant d’une place de marché en ligne de prendre des mesures qui contribuent, non seulement à mettre fin aux atteintes portées par ses utilisateurs, mais aussi « à prévenir de nouvelles atteintes de cette nature ».
La comparaison s’arrête là car comparer un produit contrefait et apprécier la légalité d’un propos, sont deux exercices très différents ;
Force est de constater que l’exécution d’injonctions visant des « contenus équivalents » à un contenu jugé diffamatoire, soulève des réalités plus complexes qu’en matière de contrefaçon de marques. Comment déterminer si un message par hypothèse non-identique modifie suffisamment le message initial pour échapper à la critique ? Intervient ici toute la subtilité des mots, de leur combinaison, de la ponctuation….
Il semble que la Cour l’ait (du moins en partie) compris. Si elle valide le principe d’injonctions envers des atteintes non encore identifiées, elle fournit toutefois un certain nombre (assez ?) de balises au juge national…
Si les principes sont posés, leur application pratique par les juges nationaux s’annonce pour le moins périlleuse.
On peut d’ores et déjà anticiper les débats devant les prétoires quant à la spécificité des injonctions à intervenir : que était le contenu du message à bannir ? Quels éléments sont à interdire ? Qu’est-ce qui nécessite ( ou non) une appréciation autonome (et humaine ?). Il incombera donc aux juges de veiller sans cesse à une juste balance des intérêts en prenant en compte la liberté d’expression et le risque de sur-censure et en rendant, le cas échéant, des injonctions extrêmement précises quant aux contenus visés.
Par ailleurs, si des astreintes sont imposées, on peut prévoir une avalanche de recours.
Plus d’infos ?
L’arrêt est disponible en annexe.