Il Digital Services Act (DSA) è operativo dal 17 febbraio. Dopo le grandi piattaforme web ora devono obbligatoriamente conformarsi alle nuove regole stabilite dall’Unione Europea anche le aziende che operano nel settore digitale, intermediando servizi ed operando su piattaforma.
Vediamo cosa cambia e per chi.
Chi è coinvolto nel Digital Service Act
Il DSA impone essenzialmente una maggiore trasparenza sull’uso di algoritmi e sulla profilazione tramite dati sensibili a fini marketing e per le campagne pubblicitarie, anche con l’obiettivo di contrastare fake news e di proteggere i minori in rete.
Le normative hanno finora riguardato quei soggetti che forniscono servizi a almeno il 10% della popolazione dell’Unione europea ogni mese, ovvero 45 milioni di persone.
Tra questi, ci sono colossi i principali motori di ricerca (Vlose – Very large online search engine, ossia Bing e Google Search) ed i colossi del Web (Vlop – Very large online platform), tra social media (Facebook, Instagram, Twitter, TikTok, Snapchat, LinkedIn, Pinterest), servizi di commercio elettronico (Alibaba AliExpress, Amazon Store, Apple AppStore, Zalando), servizi Google (Google Play, Google Maps e Google Shopping) e piattaforma di vasta portata come Booking.com, Wikipedia e YouTube.
come Amazon, Google e tutte le sue varianti, Youtube, Meta (Facebook) con Instagram e X (Twitter), Tiktok, Alibaba Express, Snapchat, Pinterest, LinkedIn, Wikipedia, Booking, App Store di Apple e Zalando.
Dal 17 febbraio, le aziende online dovranno adempiere agli obblighi previsti dal nuovo Regolamento dell’Unione sui servizi digitali.
Adesso i nuovi obblighi si estendono a chi eroga servizi digitali in forma di intermediario e tramite piattaforme online in veste di marketplace, social network, sito di condivisione di contenuti, app store e piattaforma online di viaggi e alloggi.
Regole e obiettivi del DSA UE
Il DSA impone maggiore trasparenza sugli algoritmi web e sulla pubblicità online. Prevede inoltre una politica più rigorosa contro la disinformazione online e la profilazione degli utenti (origine etnica, opinioni politiche, orientamento sessuale).
Tutte le piattaforme devono inoltre dotarsi di organismi che motivino la rimozione di contenuti o lo shadow banning, gestendo eventuali ricorsi.
Impatto sulle imprese digitali
A vigilare sono gli organismi indipendenti nazionali preposti allo scopo, che per l’Italia si identificano con l’AgCom.
Dal 17 febbraio inizieranno a operare tali coordinatori nazionali anche per le piattaforme e i motori di ricerca con meno di 45 milioni di utenti attivi mensili.
Per le piattaforme e gli altri soggetti coinvolti è vietato pubblicare pubblicità basate sui profili di bambini o su dati personali sensibili come l’orientamento sessuale e le opinioni politiche.
Dal 17 febbraio, inoltre, scatta per tutti i soggetti coinvolti l’obbligo di gestire ed elaborare le segnalazioni degli utenti su contenuti ritenuti illegali ai fini della loro rapida rimozione.
Per chi viola le direttive sono previste sanzioni fino al 6% del fatturato globale o il blocco temporaneo dell’attività.
Tutti i nuovi obblighi
- Report di trasparenza,
- rispetto dei diritti fondamentali nelle T&C (termini e condizioni),
- cooperazione con le autorità nazionali,
- adesione a punti di contatto e a organismi di mediazione,
- avviso, azione e obbligo di fornire informazioni agli utenti,
- report sulle attività illegali,
- meccanismo di reclamo, ricorso e risoluzione extragiudiziale delle controversie,
- segnalatori attendibili,
- misure contro le notifiche e le contro-notifiche abusive,
- per i marketplace verifica delle credenziali di fornitori terzi (KYBC – Know your business partner),
- conformità fin dalla progettazione (in stile GDPR),
- controlli casuali,
- divieto di pubblicità mirata ai minori e basata su caratteristiche speciali degli utenti,
- trasparenza sui sistemi di raccomandazione dei contenuti,
- divieto di dark patterns.
Per approfondimenti: qui il testo completo del DSA.