Cos’è il Digital Services Act?

L’obiettivo principale del Digital Services Act è di garantire la sicurezza e la trasparenza dei servizi digitali, nonché a regolare la moderazione dei contenuti

Cos'è il Digital Services Act?
Cos’è il Digital Services Act? La legge sui servizi digitali (DSA) è stata proposta nel dicembre 2020. Nell’aprile 2022 è stato raggiunto un accordo politico ed è entrato in vigore nel novembre 2022. Entro il 17 febbraio 2023 le piattaforme e i motori di ricerca erano obbligati a pubblicare il loro numero di utenti.

Queste norme si applicano alle piattaforme social, ai motori di ricerca, ai siti di e-commerce e ad altre società che offrono prodotti, servizi e contenuti online. Sono parte integrante del Digital Services Act (DSA), una legge europea finalizzata a garantire la sicurezza e la trasparenza dei servizi digitali, nonché a regolare la moderazione dei contenuti. Benché la legge sia stata formalmente introdotta nell’autunno del 2022, alle aziende era stato concesso un periodo di tempo fino al 25 agosto per adeguarsi alle disposizioni.

Il DSA rappresenta un aggiornamento di una direttiva sull’e-commerce risalente a circa vent’anni fa e si concentra sull’attività delle piattaforme che fungono da intermediari tra le aziende che offrono prodotti, servizi o contenuti e gli utenti che ne fanno uso. La legge si applica a tutte le aziende operanti online, ma le restrizioni sono particolarmente severe per le cosiddette “Big Tech”, ovvero le piattaforme con più di 45 milioni di utenti attivi nell’Unione Europea. Questo gruppo include aziende come Facebook, Instagram, TikTok, YouTube, Amazon Store, Apple App Store, Alibaba, Booking.com, Google Play, Google Maps, Google Shopping, LinkedIn, Pinterest, Snapchat e Zalando. Le aziende digitali più piccole avranno più tempo per adeguarsi alle nuove regole.

Il DSA richiede maggiore trasparenza da parte di queste aziende riguardo ai loro dati, agli algoritmi e alle attività svolte. Inoltre, le aziende devono essere più attente nella moderazione, filtrazione, blocco o rimozione di contenuti dannosi o pericolosi. La legge prevede tempi rapidi per la rimozione dei contenuti e impone alle aziende l’obbligo di sospendere gli utenti che ripetutamente violano le norme. Per garantire il rispetto delle disposizioni, il DSA prevede controlli annuali e, in caso di infrazioni ricorrenti, sanzioni che possono arrivare fino al 6% del fatturato annuo dell’azienda.

Tra le altre disposizioni, il DSA richiede alle aziende di condividere con le autorità di regolamentazione dettagli sul funzionamento dei propri algoritmi, che vengono utilizzati per personalizzare contenuti e pubblicità in base al comportamento e agli interessi degli utenti. Negli ultimi mesi, molte aziende hanno già adottato misure per conformarsi alle nuove norme, come il divieto di mostrare pubblicità personalizzata agli utenti minorenni, una misura adottata da TikTok, Facebook e Instagram. Inoltre, è stato reso possibile agli utenti disattivare la personalizzazione dei contenuti.

Tuttavia, alcune preoccupazioni riguardo al DSA riguardano la sua potenziale influenza sulla libertà d’informazione. Alcuni sostengono che la legge possa essere strumentalizzata per censurare opinioni divergenti e che concedere il potere di stabilire ciò che è vero e ciò che è falso alla Commissione Europea rappresenti una minaccia per la democrazia. Inoltre, si rileva che il bilanciamento di potere è sbilanciato verso la Commissione Europea, che avrà accesso agli algoritmi e potrebbe esercitare un controllo eccessivo sulla pubblicità mirata e sulla moderazione dei contenuti, anziché affidare questa autorità a un giudice o a un’autorità indipendente. In sintesi, il DSA ha generato preoccupazioni riguardo alla potenziale limitazione della libertà di espressione e all’aumento dell’ingerenza politica nelle decisioni relative ai contenuti online.

Cos’è il Digital Services Act

Il Digital Services Act, abbreviato in DSA, rappresenta un importante regolamento relativo ai servizi digitali all’interno dell’Unione Europea. Questo regolamento è stato ufficialmente approvato dal Parlamento Europeo il 5 luglio 2022 e fa parte di un pacchetto normativo più ampio chiamato Digital Services Package, insieme al Digital Markets Act. Questo pacchetto entrerà in vigore a partire dal 2023, e ha ricevuto l’approvazione della Presidente della Commissione Europea, Ursula von der Leyen, che lo ha definito come un accordo storico sia in termini di rapidità di adozione che di significato intrinseco.

In sostanza, il Digital Services Act è stato concepito con l’obiettivo principale di garantire il corretto funzionamento del mercato interno dei servizi digitali all’interno dell’Unione Europea. Per fare ciò, il regolamento ha apportato delle modifiche significative alle norme preesistenti, guidato da un principio chiaro e fondamentale: ciò che è considerato illegale nel mondo offline deve essere altrettanto illegale nel mondo online.

Questo regolamento si applica a diverse categorie di servizi digitali, tra cui:
  • Mercati online: le piattaforme che consentono agli utenti di acquistare e vendere beni o servizi online.
  • Social network: le reti sociali online che permettono alle persone di connettersi, comunicare e condividere contenuti.
  • Piattaforme di condivisione dei contenuti: le piattaforme che permettono agli utenti di condividere e pubblicare contenuti come video, immagini e testi.
  • Piattaforme di viaggio online e di alloggio: servizi che facilitano la prenotazione di viaggi e alloggi online.
  • App store: le piattaforme attraverso le quali gli utenti scaricano e utilizzano applicazioni per dispositivi mobili e tablet.
  • Servizi di intermediazione: questo comprende provider Internet e registri di domini, che svolgono un ruolo chiave nell’accesso e nell’organizzazione delle risorse online.
  • Servizi di cloud e hosting web: servizi che consentono a individui e aziende di archiviare dati e ospitare siti web online.
  • Piattaforme di economia collaborativa: le piattaforme che facilitano la condivisione di risorse e servizi tra utenti, come il car sharing o l’affitto di alloggi tra privati.

Il Digital Services Act si applica ai “servizi delle società dell’informazione“, cioè agli intermediari che offrono servizi a distanza, attraverso mezzi elettronici o telematici, su richiesta, generalmente in cambio di un pagamento, da parte di un utente o destinatario.

Il suo obiettivo a lungo termine è quello di creare un ambiente digitale sicuro e affidabile all’interno dell’Unione Europea. Questo significa garantire che i consumatori siano protetti in modo concreto nei loro diritti quando utilizzano servizi digitali, ma anche promuovere l’innovazione e la competitività tra le aziende che operano in questo settore. In altre parole, il DSA mira a creare un equilibrio tra la tutela dei diritti dei consumatori e la promozione della crescita e dell’innovazione nell’ambito dei servizi digitali, contribuendo così a plasmare il futuro del mondo digitale in Europa.

Gli obiettivi del Digital Services Act

Il Digital Services Act svolge un ruolo cruciale nel plasmare il panorama digitale europeo, con obiettivi chiaramente definiti per migliorare la sicurezza online e la qualità dei servizi digitali offerti. Vediamo ora in dettaglio quali sono gli obiettivi principali di questa importante legislazione.

Innanzitutto, il Digital Services Act ha come obiettivo fondamentale la protezione dei diritti dei consumatori. Questo significa garantire ai cittadini europei un ambiente online più sicuro e affidabile in cui poter operare senza preoccupazioni e con la certezza che i loro diritti sono tutelati. Questa tutela si estende anche alla lotta contro i contenuti illegali, compresa la manipolazione delle informazioni e la disinformazione online.

Un altro importante obiettivo è offrire ai consumatori e agli utenti commerciali di servizi digitali una scelta più ampia e costi più contenuti. In altre parole, il DSA mira a promuovere la concorrenza sana nel mercato digitale, garantendo che i consumatori abbiano accesso a una varietà di servizi e che questi servizi siano accessibili a prezzi competitivi.

Il Digital Services Act mira anche a creare un quadro normativo chiaro ed efficace. Questo è fondamentale per garantire che le piattaforme online agiscano in modo trasparente e siano responsabili delle loro azioni. Un aspetto chiave è rendere queste regole di immediata applicazione, in modo che le piattaforme online non possano eludere facilmente le normative.

Inoltre, il DSA mira a promuovere l’innovazione e la competitività nel mercato digitale. Questo dovrebbe essere realizzato facilitando l’avvio di startup e sostenendo lo sviluppo delle piccole e medie imprese, che sono spesso motori di innovazione e creatività nel settore digitale.

Un altro obiettivo importante del Digital Services Act è fornire accesso ai mercati europei per gli utenti commerciali di servizi digitali. Questo dovrebbe contribuire a creare un mercato digitale europeo più integrato e accessibile per le imprese, favorendo la crescita economica e la creazione di posti di lavoro.

Inoltre, il DSA mira a favorire un maggiore controllo democratico e una migliore vigilanza sulle piattaforme online. Questo significa che le decisioni e le azioni delle piattaforme online devono essere sottoposte a un maggiore controllo pubblico e democratico, in modo che siano allineate agli interessi della società nel suo complesso.

Infine, il Digital Services Act punta a rafforzare la tracciabilità e i controlli sugli operatori commerciali nei mercati online. Questo includerebbe l’implementazione di controlli casuali per verificare se contenuti illegali siano stati ripubblicati, contribuendo così a ridurre la diffusione di materiale illegale online.

Gli obblighi per le piattaforme

Il Digital Services Act (DSA) ha introdotto una serie di obblighi per le piattaforme online, al fine di promuovere la trasparenza, la responsabilità e la tutela dei diritti degli utenti. Questi obblighi sono stati definiti in modo proporzionato in base al tipo di servizio offerto e al numero di utenti che le piattaforme servono.

Le piattaforme intermediarie di servizi sono state suddivise in quattro categorie:
  • Intermediary services: Questa categoria comprende i servizi intermediari che collegano utenti e servizi, ma non forniscono spazio per il contenuto. Un esempio potrebbe essere un servizio di messaggistica istantanea.
  • Hosting (es. cloud): Queste sono piattaforme che offrono spazio online per l’archiviazione di dati e contenuti.
  • Online platform (es. social media): Questa categoria comprende le piattaforme online che permettono agli utenti di pubblicare e condividere contenuti.
  • Very large platform: Questa categoria si applica alle piattaforme online di grandi dimensioni, che servono più di 45 milioni di utenti al mese.

Tutte queste categorie sono soggette a obblighi specifici, che devono essere rispettati entro quattro mesi dall’assegnazione della categoria.

Gli obblighi principali, comuni a tutte le tipologie di piattaforme, includono:
  • Chiarificazione delle condizioni di servizio e dei relativi requisiti: Le piattaforme devono fornire in modo chiaro e comprensibile le loro condizioni di servizio e i requisiti che gli utenti devono seguire.
  • Informazioni esplicite sulla moderazione dei contenuti e sull’uso degli algoritmi: Le piattaforme devono spiegare in modo esplicito come moderano i contenuti e come utilizzano gli algoritmi per i sistemi di raccomandazione dei contenuti. Gli utenti devono avere la possibilità di contestare le decisioni delle piattaforme.
  • Trasparenza nei sistemi di suggerimento e nelle pubblicità online: Le piattaforme devono essere trasparenti nei confronti degli utenti riguardo ai sistemi di suggerimento e alle pubblicità online rivolte a loro.
  • Divieto di pubblicità mirata ai bambini o basata su dati sensibili degli utenti: Le piattaforme non possono utilizzare pubblicità mirate ai bambini o basate su dati sensibili degli utenti.
  • Divieto di pratiche ingannevoli: Le piattaforme non possono utilizzare pratiche ingannevoli che cercano di manipolare le scelte degli utenti, compresi i cosiddetti “dark pattern”.
  • Collaborazione con le autorità nazionali: Le piattaforme devono collaborare con le autorità nazionali se richiesto.
  • Denuncia dei reati: Le piattaforme devono denunciare i reati alle autorità competenti.
  • Creazione di un meccanismo di reclamo e risoluzione extragiudiziale delle controversie: Le piattaforme devono offrire agli utenti un meccanismo per presentare reclami e risolvere controversie al di fuori dei tribunali.
  • Misure contro le segnalazioni e le repliche abusive: Le piattaforme devono adottare misure per prevenire le segnalazioni e le repliche abusive.
  • Controllo delle credenziali di fornitori terzi: Le piattaforme devono verificare le credenziali dei fornitori terzi, seguendo il principio del “conosci il tuo cliente commerciale” (KYBC).
Per le piattaforme online e i motori di ricerca di grandi dimensioni, con oltre 45 milioni di utenti al mese, sono previsti obblighi più rigorosi, che includono:
  • Obblighi in materia di gestione dei rischi e di risposta alle crisi: Queste piattaforme devono gestire i rischi, rispondere alle crisi e prevenire abusi nei propri sistemi.
  • Condivisione dei dati chiave e degli algoritmi: Devono condividere i dati chiave e gli algoritmi con le autorità e i ricercatori autorizzati per comprendere l’evoluzione dei rischi online.
  • Codici di condotta specifici: Queste piattaforme devono rispettare codici di condotta specifici.
  • Prevenzione dei rischi sistemici: Devono adottare misure per prevenire rischi sistemici, come la diffusione di contenuti illegali o dannosi per i diritti fondamentali.
  • Audit indipendenti: Devono sottoporsi a audit indipendenti per verificare la correttezza dei dati di bilancio e delle procedure adottate.
  • Abilitazione degli utenti al blocco delle “raccomandazioni” basate sulla profilazione: Gli utenti devono avere la possibilità di bloccare le raccomandazioni basate sulla profilazione.

Sono esenti da questi nuovi obblighi i provider che forniscono attività di “mere conduit“, ovvero semplice trasporto, caching e hosting, a condizione che essi non abbiano conoscenza reale di eventuali attività o contenuti illegali e agiscano con tempestività per rimuovere il contenuto illegale o disabilitarne l’accesso.

Le sanzioni per le violazioni del DSA possono arrivare fino al 6% del fatturato annuo totale, e i destinatari dei servizi digitali possono richiedere un risarcimento per danni o perdite subite a seguito di violazioni da parte delle piattaforme. Altri motivi di sanzione per le piattaforme includono la presentazione di informazioni scorrette, incomplete o fuorvianti, la mancata rettifica delle informazioni presentate e il mancato assoggettamento ai sopralluoghi. In questi casi, le sanzioni devono essere inferiori all’1% del reddito o del fatturato annuo.

Governance e Tutela dei Minori

La Governance e la Tutela dei Minori Online nel contesto del Digital Services Act rappresentano due aspetti di fondamentale importanza per la regolamentazione e la salvaguardia dell’ambiente digitale. Esaminiamo nel dettaglio questi due aspetti.

La Governance

Una delle innovazioni chiave introdotte dal Digital Services Act riguarda la Governance delle piattaforme online. Questo regolamento ha istituito due nuove figure:

  • Il Compliance officer: Questa figura è stata designata dalle cosiddette “very large online platforms“, ovvero le grandi piattaforme online con un vasto numero di utenti. Il Compliance officer ha il ruolo cruciale di monitorare l’osservanza del regolamento da parte delle aziende. Questa persona deve essere interna all’impresa e possiedere competenze professionali specifiche indicate dal DSA. È importante sottolineare che il Compliance officer è tenuto a esercitare il suo giudizio in modo imparziale e trasparente.
  • Il Digital Services Coordinator: Questa è una nuova autorità nazionale indipendente creata dal DSA. Il suo compito principale è vigilare sull’applicazione del regolamento. Il Digital Services Coordinator è vincolato a principi fondamentali di trasparenza, imparzialità e tempestività d’azione. Deve presentare un report annuale sulle proprie attività. Tra i suoi compiti, rientra il coordinamento nazionale sulle norme del DSA, la gestione dei reclami contro i provider di servizi digitali e l’indagine sulla presenza di illeciti. Se viene riscontrata una violazione, il Digital Services Coordinator ha l’autorità di imporre sanzioni e penalità di mora. In casi gravi, può anche richiedere alle autorità giudiziarie dello Stato la restrizione temporanea dell’accesso dei destinatari al servizio interessato.

Un elemento di particolare rilevanza è che i coordinatori nazionali dei servizi digitali di tutti gli Stati membri costituiscono il comitato europeo per i servizi digitali, presieduto dalla Commissione Europea. Questo comitato svolge un ruolo essenziale nel supportare il coordinamento interstatale e la vigilanza sulle grandi piattaforme. La Governance prevista dal DSA è stata progettata per garantire un’applicazione coerente e efficace del regolamento in tutti gli Stati membri.

La Tutela dei Minori Online

Il Digital Services Act ha posto un’enfasi particolare sulla tutela dei minori online. L’articolo 24 del regolamento ribadisce chiaramente che gli interessi dei minori hanno la priorità su quelli commerciali e pubblicitari nell’ambito dell’ambiente digitale. Questa disposizione è stata inserita nell’articolo dedicato alla “trasparenza della pubblicità online”.

Il DSA introduce un divieto categorico sull’uso di “tecniche di targeting o amplificazione” che trattino, rivelino o inferiscano dati personali dei minori o di persone vulnerabili al fine di visualizzare pubblicità. Questo divieto è una misura significativa volta a proteggere i minori dalla pubblicità mirata che potrebbe sfruttare le loro informazioni personali.

Va notato che il divieto di trattare i dati dei minori per scopi commerciali era già presente nella direttiva UE 2018/1808 sui servizi audiovisivi. Tuttavia, il DSA introduce una nuova dimensione, in quanto oltre alle sanzioni a posteriori, si richiede alle piattaforme di svolgere valutazioni di impatto dei rischi sistemici. Queste valutazioni devono considerare eventuali effetti negativi sull’esercizio dei diritti fondamentali, come il diritto alla vita privata e familiare, la libertà di espressione e di informazione, il diritto alla non discriminazione e, in particolare, i diritti dei minori.

Potrebbero interessarti anche questi articoli:

L'informazione è di parte! Ci sono giornali progressisti e giornali conservatori. La stessa notizia ti viene raccontata in modo diverso. Se cerchi un sito che ti spieghi le cose con semplicità, e soprattutto con imparzialità, allora questo è il posto giusto per te. Cerchiamo notizie e fatti social del momento e li rimettiamo in circolo, senza giri di parole e senza influenzarti con le nostre opinioni.

FONTEUFFICIALE.it riassume le notizie pubblicate dalle agenzie di stampa e da altri media autorevoli (come Ansa, Agi, AdnKronos, Corriere della Sera, ecc..), quindi non è direttamente responsabile di inesattezze. Se, però, ritieni che un nostro articolo debba essere modificato o eliminato puoi farne richiesta [ scrivendo qui ].

Per ricevere i nostri aggiornamenti e restare informato ti invitiamo a seguirci sul nostro profilo ufficiale di Google News.