Les 19 très grandes plateformes qui doivent respecter le Digital Service Act fin août


La Commission européenne a désigné les 17 premières très grandes plateformes en ligne et 2 très grands moteurs de recherche en ligne, comptant au moins 45 millions d’utilisateurs actifs chacun par mois en Europe, qui devront respecter le Digital Service Act (DSA) au 25 août 2023.

Encadrement des contenus et des algorithmes des plateformes

Ce règlement européen sur les services numériques encadre les contenus publiés sur les réseaux sociaux, l’usage des données des internautes, les algorithmes employés et la protection des mineurs. Dans la liste des 19 plateformes, Google est champion toutes catégories en étant présent via 4 services, son moteur de recherche Google Search, Google Play, Google Maps et Google Shopping ainsi que par sa plateforme vidéos YouTube.

Les très grandes plateformes visées sont majoritairement américaines

Microsoft est présent via son moteur de recherche Bing et Linkedin. Meta pour sa part est concerné pour Facebook et Instagram. Les autres plateformes sont majoritairement américaines avec Amazon Store, Apple AppStore, Pinterest, Snapchat , Twitter et Wikipedia. Seulement 2 plateformes sont européennes, avec Zalando et Booking.  Deux plateformes sont chinoises, AliExpress d’Alibaba et TikTok. Les plateformes ont été désignées sur la base des données utilisateurs qu’elles devaient publier au plus tard le 17 février 2023.

À la suite de leur désignation, les entreprises doivent se conformer, dans un délai de 4 mois, à l’ensemble des nouvelles obligations découlant du DSA. Celles-ci visent à autonomiser et à protéger les utilisateurs en ligne, y compris les mineurs, en exigeant que les services désignés évaluent et atténuent leurs risques systémiques et qu’ils fournissent des outils permettant une modération efficace des contenus.

Les internautes doivent pouvoir se soustraire aux systèmes de recommandation

Les utilisateurs devront être informés clairement des raisons pour lesquelles certaines informations leur sont recommandées et ils auront le droit de se soustraire aux systèmes de recommandations fondés sur le profilage. Les utilisateurs doivent pouvoir signaler facilement les contenus illicites et les plateformes devront traiter rapidement ces signalements.

L’origine ethnique, les opinions politiques ou l’orientation sexuelle ne devront pas servir à sélectionner les publicités

Les données sensibles des utilisateurs telles que l’origine ethnique, les opinions politiques ou l’orientation sexuelle ne devront pas servir à sélectionner les publicités présentées. Les plateformes devront étiqueter toutes les publicités et indiquer l’identité de leurs promoteurs aux utilisateurs.

Les plateformes devront assurer un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs. Les publicités fondées sur un profilage s’adressant aux enfants ne sont plus autorisées. Les plateformes devront mener des évaluations spéciales des risques, portant notamment sur les effets négatifs sur la santé mentale, dont les résultats devront être fournis à la Commission européenne 4 mois après la désignation et rendues publiques au plus tard un an plus tard.

Répondre aux enjeux des contenus illicites et de la liberté d’expression

Les plateformes devront revoir la conception de leurs services, y compris leurs interfaces, systèmes de recommandations et conditions d’utilisation, afin d’atténuer ces risques. Les plateformes et les moteurs de recherche doivent prendre des mesures pour traiter les risques liés à la diffusion de contenus illicites en ligne et les effets négatifs sur la liberté d’expression et d’information.

Les plateformes doivent soumettre à un audit externe leurs mesures pour respecter le DSA

Les plateformes doivent mettre en place un mécanisme permettant aux utilisateurs de signaler les contenus illicites, et doivent réagir promptement à ces signalement. Les plateformes doivent faire en sorte par exemple d’empêcher la propagation de la désinformation et l’utilisation non authentique de leurs services. Les plateformes doivent soumettre à un audit externe et indépendant leur propre évaluation des risques et les mesures qu’elles prennent pour assurer le respect de toutes les obligations découlant du DSA.

Les plateformes devront permettre aux chercheurs d’accéder aux données publiquement accessibles. Par la suite, un mécanisme spécial sera mis en place pour les chercheurs agréés. Les plateformes devront rendre public le registre de toutes les publicités présentées sur leur interface. Elles doivent publier des rapports de transparence sur les décisions de modération des contenus et la gestion des risques.

Une architecture de surveillance paneuropéenne

Le DSA sera mis en œuvre au moyen d’une architecture de surveillance paneuropéenne. La Commission européenne est l’autorité compétente pour surveiller les plateformes et les moteurs de recherche désignés, mais elle travaillera en étroite coopération avec les coordinateurs pour les services numériques.

Le 17 février 2024, toutes les autres plateformes doivent se conformer aux obligations qui leur incombent au titre du DSA

Les États membres ont jusqu’au 17 février 2024 pour établir ces autorités nationales, qui sont chargées également de la surveillance des plateformes et des moteurs de recherche de plus petite taille. Cette date est aussi l’échéance à laquelle toutes les autres plateformes doivent se conformer aux obligations qui leur incombent au titre du DSA et fournir à leurs utilisateurs la protection et les garanties qu’il prévoit.

La Commission européenne renforce également son expertise. Elle a lancé le Centre européen pour la transparence des algorithmes. Ce dernier contribuera à déterminer si le fonctionnement des systèmes algorithmiques est conforme aux obligations en matière de gestion des risques. La Commission européenne met également en place un écosystème numérique de contrôle de l’application de la législation, qui rassemble l’expertise de tous les secteurs concernés.

Analyse de ce que les internautes voient selon les plateformes

Les chercheurs agréés auront la possibilité d’accéder aux données de toute très grande plateforme en ligne ou de tout très grand moteur de recherche en ligne afin de mener des recherches sur les risques systémiques dans l’Union Européenne. En ayant accès à des données qui n’étaient pas divulguées précédemment, ils pourraient par exemple analyser les décisions des plateformes déterminant ce que voient leurs utilisateurs et les interactions que ceux-ci ont en ligne.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *