Ce 4 octobre, le Conseil de l’Union européenne a définitivement approuvé le Règlement Digital Services Act(« DSA »)[1]
Pour rappel, le DSA avait été soumis par la Commission européenne en décembre 2020 en même temps que le Digital Market Act (« DMA »)[2]. Ils constituent ensemble ainsi le « Paquet espace numérique » ayant vocation à mieux encadrer les services en ligne et les comportements des opérateurs économiques présents sur les marchés numériques.
Les dispositions de ce nouveau Règlement[3] ont longtemps été discutées de manière informelle par les institutions de l’Union européenne et ont fait l’objet de vives critiques des entreprises Outre-Atlantique actives en Europe comme nous l’avons évoqué dans notre article publié au début de l’année 2021 : : « Le Digital Services Act Package : politique numérique européenne en discussion ».
En proies, certaines dispositions instaurant des obligations aux plateformes qui devront nécessairement repenser non seulement les services qu’elles proposent sur le marché unique numérique européen, mais inévitablement l’organisation de leur entreprise, eu égard aux obligations contenues dans ces deux textes.
La version finale définit 27 notions[4] et est précédée de 156 Considérants. Le texte compte au total 93 articles, dont un peu moins de la moitié sont consacrées au contrôle des autorités compétentes et aux sanctions[5]. Parmi ceux-là, 27 articles sont consacrés aux mesures d’enquête et de surveillance des très grandes plateformes ou des très grands moteurs de recherche en ligne[6]
Autant de précisions qui permettront à la fois aux autorités de constater les infractions mais également de constituer un guide à l’attention des opérateurs visés par le texte des comportements qu’ils ne devront pas adopter.
Le texte organise les obligations en fonction de la taille et de la nature des activités des opérateurs numériques. Le texte s’adresse ainsi à plusieurs types d’opérateurs, qu’ils soient des plateformes, des fournisseurs d’accès à Internet, des réseaux sociaux, des marchés en ligne, des très grandes plateformes ou des très grands moteurs de recherche, des services d’informations en nuage.
Les obligations des opérateurs varieront en fonction de la nature des services qu’ils proposent ainsi que de leur taille. Ils devront assurer un environnement numérique plus sûr, contenir la circulation de produits illégaux, de contenus de désinformation, des discours de haine et donner aux utilisateurs une vision plus transparente sur le traitement de leurs données personnelles[7].
Afin de répondre à ces provisions, les très grandes plateformes et moteurs de recherche devront analyser annuellement les risques systémiques notamment en matière de discours civique et de droits fondamentaux diffusés à l’aide de leurs services par certains utilisateurs. L’obligation de mener des audits indépendants de réduction des risques[8] figure à titre de mesure pour maîtriser ces risques.
Pour préserver les utilisateurs de contenus illicites, les plateformes devront mettre en place un mécanisme permettant aux utilisateurs de signaler tout contenu diffusé via les plateformes qu’ils considéreraient illicite[9]. Postérieurement au signalement, les plateformes devront vérifier l’illicéité du contenu. Cette possibilité affiche la volonté de la Commission de voir les plateformes coopérer avec leurs utilisateurs mais aussi avec des signaleurs de confiance[10], soit des entités indépendantes et compétentes pour identifier les contenus illicites et garantir la sécurité en ligne.
Par ailleurs, dès lors que les plateformes prendront l’initiative de modérer unilatéralement les contenus, en retirant des contenus ou en suspendant le compte de certains utilisateurs, ces derniers bénéficieront d’un mécanisme de traitement des réclamations afin d’être mieux avertis des motifs d’une telle manœuvre[11] et d’avoir accès à la résolution extra-judiciaire[12] ou judiciaire de litiges liés à leur utilisation des services.
Autre nouvelle obligation ; dès lors qu’une publicité[13] ou un contenu sera proposé à un utilisateur, la plateforme devra être transparente[14] concernant les paramètres ayant déterminé cette recommandation. De plus, tout type de publicité ciblée et à destination des personnes mineurs[15] sera interdite.
Le texte prévoit la mise en place par les Etats membres d’un coordinateur pour les services numériques. Il sera notamment chargé de vérifier que les plateformes respectent le Règlement. Il est prévu que ce service soit intégré à l’Autorité des médias[16], soit l’Arcom en France[17].
Néanmoins, cet organe ne sera dédié qu’à la surveillance des plateformes sans faire entrer dans son examen les très grandes plateformes et très grands moteurs de recherche.
Compétence exclusive de la Commission européenne pour surveiller les très grandes plateformes et les très grands moteurs de recherche
La Commission européenne sera compétente exclusivement pour surveiller les très grandes plateformes ou les très grands moteurs de recherche, soit ceux ayant un nombre de destinataires mensuel supérieur ou égal à 45 millions. Elle aura ainsi le pouvoir d’ordonner auprès de ces opérateurs l’accès à leur base de données et algorithmes et de leur imposer la conservation de tous les documents nécessaires à évaluer le respect du Règlement[18].
De plus, dans le cadre d’une enquête ouverte à l’encontre de ceux-ci, et similairement aux enquêtes de concurrence que peut mener la Commission, il sera possible pour elle d’effectuer des inspections dans les locaux de l’entité concernée ainsi que de demander des explications sur les différentes manœuvres effectuées par celle-ci en ligne.
Premièrement, force est de constater que les grands acteurs de l’économie numérique devront repenser leur organisation interne pour assurer leur conformité au texte.
Ensuite, les utilisateurs ou destinataires des services en ligne seront plus engagés dans les mécanismes dédiés à la protection de leur droit et à leur sécurité.
Pour terminer, nous devons attendre que ce texte soit effectif et que les premières mesures et sentences prises par le coordinateur pour les services numériques (en France, l’Arcom) ou la Commission tombent pour obtenir plus de visibilité sur la mise en œuvre de ce texte.
A suivre.
Par Anne Schmitt et Cynthia Picart
[1] Conseil de l’Union européenne, DSA : Le Conseil approuve définitivement la protection des droits des utilisateurs en ligne, 4 octobre 2022 (Communiqué de presse, en ligne)
[2] Sur ce point, voir notamment notre article : « Le Digital Services Act Package : politique numérique européenne en discussion », 15 mars 2021
[3] Règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques)
[4] Règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques et modifiant la directive 2000/31/CE précité, article 3
[5] Règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques et modifiant la directive 2000/31/CE précité, Chapitre IV, « Mise en œuvre, coopération, sanctions et exécution »
[6] Règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques et modifiant la directive 2000/31/CE précité, Section 4 « Surveillance, enquêtes, exécution et contrôle concernant les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne », articles 64 à 91
[7] Conseil de l’Union européenne, Législation sur les services numériques
[8] Règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques et modifiant la directive 2000/31/CE précité, article 37
[9] Règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques et modifiant la directive 2000/31/CE précité, article 16
[10] Règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques et modifiant la directive 2000/31/CE précité, article 22
[11] Règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques et modifiant la directive 2000/31/CE précité, article 20
[12] Règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques et modifiant la directive 2000/31/CE précité, article 21
[13] Règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques et modifiant la directive 2000/31/CE précité, article 26
[14] Règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques et modifiant la directive 2000/31/CE précité, article 27
[15] Règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques et modifiant la directive 2000/31/CE précité, article 28 § 2
[16] Règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques et modifiant la directive 2000/31/CE précité, Considérant 109,
[17] Vie publique, République française (en ligne), « Le règlement européen sur les services numériques (DSA) vise une responsabilisation des plateformes », 26 octobre 2022
[18] Règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques et modifiant la directive 2000/31/CE précité, article 72
01/11/22