UTILISATION DES COOKIES : en poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer une navigation personnalisée, des publicités adaptées à vos centres d’intérêts et la réalisation de statistiques. Pour en savoir plus et paramétrer vos cookies, cliquez ici 

Suppression de contenus illicites : les nouvelles obligations de l’hébergeur

Décryptages
Outils
TAILLE DU TEXTE

Mathieu Prud'homme - Avocat - Alain BensoussanAprès l’arrêt Dailymotion de la Cour de cassation du 17 février 2011, le statut d’hébergeur semble désormais acquis pour les sites web 2.0. Le régime de responsabilité qui en découle fait lui aussi l’objet d’une actualité particulièrement riche. La jurisprudence française en précise actuellement les contours, et s’oriente vers une obligation de suppression définitive des contenus illicites par l’hébergeur, en attendant que la Cour de Justice de l’Union européenne entérine, ou non, ce mouvement.

Un second apport de l'arrêt Dailymotion a été de confirmer que la notification à l'hébergeur en vue d'obtenir la suppression d'un contenu manifestement illicite doit respecter les conditions prévues par l'article 6-I-5 de la LCEN.

Mais une fois ce contenu notifié à l'hébergeur, quelles sont exactement la nature et la portée de son obligation de suppression ? Le courant jurisprudentiel actuel, suivi par la Cour d'appel de Paris, tend à imposer à l'hébergeur de veiller à ce que le contenu retiré suite à une notification ne réapparaisse pas ultérieurement, consacrant ainsi le principe d'une suppression définitive.

S'agit-il alors d'une obligation de résultat ? Surtout, ce principe de suppression définitive ne revient-il pas de facto à instaurer une obligation de filtrage des contenus ?

1. LES CONTOURS DE L'OBLIGATION DE SUPPRESSION DEFINITIVE

Il convient en premier de rappeler qu'aux termes de l'article 6-I-7 de la LCEN, les hébergeurs ne sont pas soumis à une obligation générale de surveiller les informations qu'ils transmettent ou stockent, ni à une obligation générale de rechercher des faits ou des circonstances révélant des activités illicites. Ils doivent cependant supprimer tout contenu manifestement illicite qui leur est notifié, sous peine de voir leur responsabilité engagée, conformément à l'article 6-I-2 de la LCEN.

Précisant la nature de cette obligation de suppression, la Cour d'appel de Paris, dans deux arrêts du 14 janvier 2011 (CA Paris, 2ème ch. 5, 14-1-2011, Google Inc. c. Bac Films, The Factory et Google Inc. c. Bac Films, The Factory, Canal+) concernant le moteur de recherche de vidéos de Google vidéos puis dans un arrêt du 4 février 2011 (CA Paris, 2ème ch., 4-2-2011, n° 09-21941) concernant Google images, a considéré que le fait de ne pas accomplir les diligences nécessaires pour empêcher la remise en ligne d'un contenu manifestement illicite précédemment notifié engage la responsabilité de l'hébergeur. Google, faute d'avoir « accompli les diligences nécessaires en vue de rendre impossible une nouvelle mise en ligne [du contenu] déjà signalé comme illicite », a été condamnée pour contrefaçon.

Cette position n'est pourtant pas nouvelle. Ainsi, le Tribunal de grande instance de Paris avait déjà reproché à Google de n'avoir pas mis en œuvre « tous les moyens nécessaires en vue d'éviter une nouvelle diffusion » (TGI Paris, 3ème ch. 19-10-2007 n°06-11874) et le Tribunal de commerce de Paris avait considéré que « dès l'instant qu'un titulaire de droits a signalé un contenu illicite dans une zone de stockage déterminée (URL) à un hébergeur, ce dernier se trouve dans l'obligation de surveiller toute nouvelle apparition de ce contenu, dans n'importe quelle zone de stockage » (TC Paris, 20-2-2008, Flach Film c. Google France et Google Inc.). D'autres décisions avaient tranché dans ce sens à propos de plateformes d'échange de vidéos.

Des décisions plus récentes viennent cependant limiter la portée de cette obligation de suppression définitive, en tenant compte d'une part des moyens techniques mis en œuvre par l'hébergeur et d'autre part de la nécessaire collaboration du plaignant.

Ainsi, le Tribunal de grande instance de Paris (TGI Paris, 3ème ch. 4e sect., 28-4-2011, n°09-08485) a pris en compte le fait que le prestataire proposait des dispositifs techniques de signalement des contenus (déjà en ce sens : TGI Paris, 3ème ch. 22-9-2009, n° 09-06246). Tout d'abord, le Tribunal retient le principe de suppression définitive en considérant que dans la mesure où Youtube « dispose des moyens techniques qui lui permettent de reconnaître les vidéomusiques qui ont fait l'objet d'une première notification, et ainsi d'en rendre impossible l'accès, il n'y a pas lieu d'imposer à l'ayant droit de procéder à une nouvelle notification ». Il écarte néanmoins la responsabilité de l'hébergeur, en l'absence de collaboration du demandeur à son système d'identification de contenus, privant ainsi Youtube de « la possibilité de mettre en œuvre le système "content identification" qu'elle a organisé afin de rendre impossible l'accès aux contenus déjà identifiés. Dès lors que la société Youtube ne pouvait procéder à la réalisation et la conservation des empreintes des vidéomusiques déjà notifiées, elle ne disposait plus de moyens techniques lui permettant de détecter de nouvelles mises en ligne illicites ».

Plus récemment encore, le Tribunal de grande instance de Paris (TGI Paris, 3ème ch., 3-6-2011, n°09-08902) a précisé ce qu'il faut entendre par la « réapparition d'un contenu ». Un ayant droit avait notifié une vidéo à la société Dailymotion mais n'avait pas indiqué toutes les url auxquelles cette video litigieuse était accessible. L'ayant droit, constatant que la vidéo était toujours accessible, recherchait la responsabilité de Dailymotion. Le tribunal a écarté la responsabilité de l'hébergeur, relevant que les mises en ligne litigieuses étaient antérieures à la notification, et que le demandeur « a choisi de dresser des procès-verbaux d'huissier au lieu d'en informer le prestataire technique par courrier ou par la notification simplifiée mise en place par la société Dailymotion sous chaque contenu par le lien "Signaler cette vidéo" ou encore par la notification directe sur une boîte mail dédiée à cet effet, alors que ces solutions simplifiées lui avaient été rappelé par l'hébergeur dans son courrier du 24 mars 2009 ». Une certaine obligation de collaboration du notifiant semble ici encore se dessiner.

Le Tribunal précise également les limites de l'obligation de suppression définitive, qui sont d'une double nature technique et juridique. En effet, l'une des vidéos litigieuses ne contenait que quelques secondes reprises de l'œuvre protégée, ce qui, selon le tribunal « rendait impossible toute identification de ce contenu par Dailymotion, en l'absence de concordance entre les empreintes générées par le clip original et le nouveau contenu, sauf à exiger de l'hébergeur un contrôle a priori de l'ensemble des contenus au moment de leur mise en ligne, ce qui s'avère impossible compte tenu du volume de contenus stockés et serait contraire aux dispositions de l'article 6-I-7 de le LCEN ».

A ce jour, il n'est pas acquis que la Cour d'appel validera cette position des premiers juges, puisque les arrêts précités des 14 janvier et 4 février 2011 ne prévoient aucune limite technique ou temporelle à l'obligation de suppression définitive.

En cela, cette exigence va beaucoup plus loin que l'« activité de surveillance ciblée et temporaire demandée par l'autorité judiciaire » prévue par l'article 6-I-7 al.2 de la LCEN.

2. VERS UNE OBLIGATION DE FILTRAGE ?

Une clarification devrait prochainement provenir de la CJUE qui doit se prononcer sur les obligations pesant sur les hébergeurs et sur la teneur du principe de « notification et suppression » mis en place à l'article 14 de la directive 2000/31 dite commerce électronique, dans une affaire de droit des marques opposant un fabricant à une plate-forme d'enchères en ligne (aff. C324-09).

L'avocat général, dans ses conclusions présentées le 9 décembre 2010 admet dans une certaine mesure le principe de suppression définitive. Le critère auquel il s'attache est celui de la « connaissance effective » du caractère illicite du contenu, mentionné à l'article 14 de la directive. Il n'est selon lui « pas suffisant d'affirmer que le prestataire de services aurait dû avoir connaissance de l'activité illicite ». Pour respecter cette condition, l'avocat général propose alors de soumettre cette obligation de suppression définitive à une « double condition d'identité » signifiant que, « dans les affaires concernées, le tiers contrevenant devrait être la même personne et que les marques auxquelles il est porté atteinte devraient être les mêmes » (point 182) ».

Une question préjudicielle sur ce sujet est également pendante devant la CJUE dans une affaire Sabam/Netlog (aff. C-360/10) ainsi que dans une affaire Scarlet/Sabam (C-70/10), visant à déterminer si un juge peut ordonner à un prestataire technique de mettre en place, à titre préventif un système de filtrage de la plus grande partie des informations stockées sur ses serveurs, en vue d'y repérer des fichiers électroniques contenant les oeuvres protégées du demandeur. L'avocat général dans l'affaire Scarlet/Sabam considère d'ores et déjà qu'une « mesure qui ordonne à un fournisseur d'accès à Internet la mise en place d'un système de filtrage et de blocage des communications électroniques aux fins de protéger les droits de propriété intellectuelle porte en principe atteinte aux droits fondamentaux ».

Les moyens à mettre en œuvre pour respecter une telle obligation de suppression définitive, c'est à dire de veiller à ce qu'un contenu notifié ne réapparaisse plus, sans limitation de durée, s'avéreront complexes tant sur le plan technique que juridique.

Les techniques d'identification et de filtrage des contenus ont donc de l'avenir. Toutefois, leur fiabilité par rapport à l'objectif poursuivi reste souvent à démontrer selon les types de contenus.

Ces incertitudes techniques constituent donc une source majeure d'insécurité juridique et donc de responsabilité.

Or, compte tenu de l'application large du statut d'hébergeur, ce sont toutes les entreprises qui éditent un site permettant à l'internaute de publier des contenus ou commentaires qui sont concernées.

Mathieu Prud'homme et Katharina Berbett, avocats, cabinet Alain Bensoussan