Journal de l'économie

Envoyer à un ami
Version imprimable

Le DSA : les GAFAM à l’épreuve de la responsabilité électronique





Le 18 Octobre 2023, par Olivier de Maison Rouge

Airbnb, Amazon ou Microsoft, Instagram, X …, des noms connus de tous. Ces géants du numérique sur lesquels nous nous appuyons pour les tâches du quotidien font désormais partie intégrante de nos vies : livraison de produits et de courses d’alimentation, commerce en ligne, divertissement, travail, recherche d’emploi, communication, rapports sociaux … etc.


Le DSA : les GAFAM à l’épreuve de la responsabilité électronique
Ces fournisseurs ont ainsi une influence au moins importante si ce n’est décisive dans nos vies. En les utilisant, nous nous exposons cependant à plusieurs vulnérabilités : opérations d’influence, vol et utilisation détournée de données personnelles, exposition à des contenus indésirables ou illicites.

Afin de protéger la population européenne, la Commission européenne a voté la mise en place du Digital Service Act. Celui-ci est entré en vigueur le 19 octobre 2022 et laisse aux entreprises concernées jusqu'à février 2024 pour se mettre en conformité avec ledit texte. Elle impose un principe de proportionnalité en fonction du nombre d'utilisateurs : avec le nombre de personnes potentiellement exposées croissent la dureté des mesures et la rapidité de la mise en place demandée. Les GAFAM devront ainsi se mettre en conformité dans les 4 mois qui suivent l’entrée en vigueur de cette nouvelle législation.

Or, l’actualité est riche en exemples rappelant la toute-puissance des GAFAM en matière de contrôle et de censure : bannissement de publicités par Google, déréférencement dans Google News, fermeture de comptes par Facebook et Twitter, démonétisation ou suppression de vidéos dans YouTube…

I – Un statut « d’hébergeur » longtemps favorable juridiquement

La règlementation française et européenne en vigueur a longtemps été particulièrement favorable aux GAFAM qui sont le plus souvent qualifiés en droit français d’« hébergeur » au sens de l’article 6-I-2 de la loi pour la confiance dans l’économie numérique (LCEN) du 21 juin 2004.

En effet, ce statut leur assure une moindre responsabilité civile et pénale – voire une quasi impunité – concernant les contenus partagés sur la plateforme par leurs utilisateurs dès lors que ces plateformes s’engagent à assurer « promptement », autrement dit à bref délai, le retrait a posteriori des contenus manifestement illicites qui leur sont signalés, par opposition au statut d’éditeur qui les rendrait responsables, par principe, du contenu diffusé sur leur plateforme (au sens de la loi de 1881 sur la liberté de la presse en matière d’injure publique, diffamation, etc.).

Parallèlement à cette responsabilité limitée, les plateformes se sont contractuellement octroyé le droit de censurer par elle-même, selon leurs propres critères prétendument « éthiques », le contenu qu’elles hébergent ou référencient.

Elles prévoient ainsi des règles qui doivent être respectées par les éditeurs, les utilisateurs et tout fournisseur de contenu sans que le principe de la liberté d’expression n’y ait sa place. C’est ainsi que les conditions d’utilisation (CGU) de YouTube interdisent par exemple la publication de « contenus qui propagent des informations médicales incorrectes contredisant celles des autorités sanitaires locales ou de l’Organisation mondiale de la Santé (OMS) concernant le COVID-19. » ou qui contredisent le « consensus des experts d’autorités sanitaires locales ou de l’OMS au sujet du vaccin contre le COVID-19 ».

Pourtant, le juge européen a plusieurs pu rappeler que la liberté d’expression vaut « non seulement pour les informations ou les idées accueillies avec faveur, ou considérées comme inoffensives ou indifférentes, mais aussi pour celles qui heurtent, choquent ou inquiètent l’Etat ou une fraction quelconque de la population » (CEDH, Handyside c/ Royaume-Uni, 7 décembre 1976). De même, la CEDH a rappelé que ce principe s’applique même « en présence d’éléments donnant fortement à croire que les informations en question pourraient être fausses » (CEDH, Cour (Deuxième Section), 6 sept. 2005, n° 65518/01, §113) et qu’il ne peut se limiter « à l’exposé des seules idées généralement admises » (CEDH, 25 août 1998, Hertel/Suisse, §50).

La validité et la proportionnalité des CGU de ces GAFAM mériterait par conséquent d’être posée, d’autant plus que ces plateformes rémunèrent des organismes de « fact checking » orientés politiquement pour les aider à appliquer ces clauses. Toutefois, les GAFAM se réfugient jusqu’à présent avec succès derrière le principe de liberté contractuelle. Dans une célèbre affaire « PragerU /Google » de 2020, la justice américaine a estimé que YouTube était un forum privé et non public, et que donc PragerU ne pouvait invoquer le Premier amendement garantissant le droit à la liberté d’expression.

Par ailleurs, le contrôle de plus en plus important par les GAFAM du contenu qu’elles hébergent, au travers de leurs conditions d’utilisation, et qui va bien au-delà de la simple suppression de contenus manifestement illicites puisque des contenus même licites peuvent être censurés au seul motif qu’ils ne respecteraient pas un certain « consensus », apparait comme manifestement incompatible avec un statut de simple hébergeur.

La Cour de justice de l’Union européenne a ainsi établi un critère du rôle actif ou passif des plateformes pour déterminer la qualité d’hébergeur ou d’éditeur en vertu duquel une plateforme définissant au travers de ses conditions générales une ligne éditoriale et contrôle du contenu devrait être qualifiée d’éditeur (arrêt du 23 mars 2010, Sté Google c/ Sté Louis Vuitton Malletier affaire, C-236/08 à C-238/08).
L’Union européenne semble prendre conscience du pouvoir de plus en plus important des GAFAM au regard de leur responsabilité qui, elle, reste allégée.

Déjà en 2019, le Règlement 2019/1150 « Plateform to business » applicable au e-commerce et marketplaces a consacré un véritable droit à l’information pour les entreprises utilisatrices des plateformes en ligne quant aux décisions prises à leur encontre venant restreindre ou suspendre leurs services et doivent pouvoir connaître l’exposé des motifs des décisions prises par les plateformes avec une référence aux faits ou circonstances spécifiques, y compris le contenu des signalements émanant de tiers.

II – Vers une responsabilité accrue ?

La Commission européenne a ainsi publié, le 15 décembre 2020, les propositions de règlements Digital Services Act (DSA) et Digital Markets Act (DMA) qui avaient pour ambition de permettre la mise en place d’un nouveau cadre de régulation harmonisé au sein de tous les états membres de l’UE afin de responsabiliser les plateformes numériques (DSA). Le projet de DMA entendait limiter les tentations monopolistiques des GAFAM en garantissant des relations commerciales équilibres et loyales entre les acteurs.

Ainsi, après de nombreuses interventions et actions de lobbying comme Bruxelles sait tant en être destinataire, le principal objectif du Digital Service Act (DSA) est de mettre en pratique un principe simple : ce qui est illégal dans le monde réel doit aussi l’être dans le cyberespace et tout particulièrement sur ces plateformes faisant partie de la vie quotidienne d’une écrasante majorité d’Européens

Les objectifs motivant ces limitations sont la volonté de protéger les droits fondamentaux des internautes européens : liberté d’expression et la protection des consommateurs en renforçant le contrôle démocratique des grandes plateformes et en limitant les risques systémiques liés à la manipulation de l’information.

Le DSA s’applique à l’ensemble des intermédiaires en ligne offrant leurs services sur le marché européen. Les entités ciblées par cette législation (liste non-exhaustive) sont les suivantes : les FAI, les services cloud, les marketplaces en ligne (Amazon), les réseaux sociaux (Facebook) et plateformes de partage de contenu (Google via YouTube), les plateformes de réservation de voyage/hébergement (AirBnb). L’ensemble des GAFAM est ainsi directement impacté par les restrictions strictes, présentes dans la réglementation.

En premier lieu, le Digital Services Act a vocation à réguler le fonctionnement des plateformes et définir un cadre de responsabilité des plateformes numériques concernant la publication et diffusion de contenus et produits et services sur internet (notamment, les produits illicites, dangereux ou contrefaits). Le périmètre de ce texte est extrêmement large, car concerne toutes les plateformes en ligne offrant leurs services dans l’UE qu’ils soient établis ou non dans l’UE et leur impose des obligations spécifiques en corrélation avec leur rôle, leur taille et leur impact dans l’écosystème numérique afin de ne pas imposer des obligations trop lourdes ou inutiles aux petites entreprises.

Ce nouveau document instaure plusieurs nouveautés qui visent à informer leurs utilisateurs de toute modification importante de leurs conditions générales, à formuler les conditions générales de manière simple, intelligible, aisément abordable et sans ambiguïté, les informations fournies comprennent les mécanismes de recours et de réparation disponibles pour l’utilisateur.

De plus, les plateformes en lignes doivent établir des rapports de transparence portant sur leurs systèmes internes de traitement des réclamations et leurs activités de modération des contenus, ainsi que, suspendre, pendant une période raisonnable et après avertissement, la fourniture de leurs services aux utilisateurs diffusant fréquemment des contenus manifestement illicites et prendre des mesures appropriées et proportionnées afin de garantir un niveau élevé de protection de la vie privée, de la sûreté et de la sécurité des mineurs. Une des nouveautés qui semble être inédite correspond à la lutte et à l’atténuation des risques sur les plateformes en lignes et les moteurs de recherches.

La grande mesure qui a été mise en place par l’UE concerne notamment le système de surveillance. Au sein de chaque pays membre de l’UE, un coordinateur de service numérique sera désigné. Son rôle sera de contrôler le respect du règlement DSA dans le pays membre. L’UE lui confère un certain pouvoir, dans leurs missions de contrôle : il devra procéder à des inspections en étant présent physiquement sur les lieux à l’instar d’un auditeur. Il pourra interroger les fournisseurs et investiguer dans les différentes documentations.

De plus, le coordinateur de service numérique pourra infliger des amendes en cas de manquement ou des mesures provisoires pour éviter un préjudice grave comme il est prévu selon l’article 42 du DSA. L’amende correspondra à 6% du chiffre d'affaires, quant aux astreintes, nous serons à 5% du chiffre d’affaires.

En résumé, les grandes plateformes en ligne les plus susceptibles du fait de leur taille de participer à la viralité d’une information ou d’un contenu illicite, c’est-à-dire celles atteignant plus de 10% des 450 millions de consommateurs en Europe, seront soumises à de nouvelles obligations et interdictions et en particulier :
  • La mise en œuvre de mesures concrètes de lutte contre les biens, services ou contenus illicites en ligne (signalement du contenu, coopération des plateformes avec des « signaleurs de confiance » et traçabilité des utilisateurs professionnels) ;
  • Des mesures de transparence (notamment concernant leur algorithme) ;
  • Des garanties pour les consommateurs pouvant contester les décisions de modération de contenus des plateformes ;
  • Des mécanismes de gestion de risque et des audits indépendants sur leurs systèmes de gestion de risque).
     
En cas d'infraction grave ayant pour conséquences la mise en danger de la sécurité des citoyens européens, ces acteurs pourraient écoper d'une amende allant jusqu'à 6 % de leur chiffre d'affaires. Dans les cas les plus graves, ils pourraient même être interdits d'opérer sur le marché européen.

Olivier de MAISON ROUGE
Avocat – Docteur en droit
Dernier ouvrage publié : « Gagner la guerre économique. Plaidoyer pour une souveraineté économique & une indépendance stratégique » VA Editions, mars 2022



France | Mémoire des familles, généalogie, héraldique | International | Entreprises | Management | Lifestyle | Blogs de la rédaction | Divers | Native Advertising | Juris | Art & Culture | Prospective | Immobilier, Achats et Ethique des affaires | Intelligence et sécurité économique - "Les carnets de Vauban"



Les entretiens du JDE

Tarek El Kahodi, président de l'ONG LIFE : "L’environnement est un sujet humanitaire quand on parle d’accès à l’eau" (2/2)

Tarek El Kahodi, président de l'ONG LIFE : "Il faut savoir prendre de la hauteur pour être réellement efficace dans des situations d’urgence" (1/2)

Jean-Marie Baron : "Le fils du Gouverneur"

Les irrégularisables

Les régularisables

Aude de Kerros : "L'Art caché enfin dévoilé"

Robert Salmon : « Voyages insolites en contrées spirituelles »

Antoine Arjakovsky : "Pour sortir de la guerre"











Rss
Twitter
Facebook