Tutti i Target

Digital Services Act

Norme e regolamenti per i fornitori di piattaforme online



Nel novembre 2022 è entrato in vigore il Regolamento Europeo 2022/2065 noto come “Digital Services Act” – che contiene una serie di norme e regolamenti per i fornitori di piattaforme online volti a creare uno spazio digitale più sicuro per tutti gli utenti ove i diritti fondamentali vengano rispettati e tutelati e con alcune regole pensate appositamente per proteggere i minori online.

La Rete è un luogo in cui poter leggere, imparare, guardare, ascoltare, giocare o semplicemente vedere i contenuti che condividono persone da tutto il mondo. Ma in un ambiente guidato dal profitto e da specifici business model, i più giovani vengono regolarmente esposti a pubblicità mirate e disinformazione, informazioni e contenuti sessualizzati, comportamenti inadeguati e pressori rispetto alle loro capacità di comprendere e prestare un consenso informato anche e soprattutto rispetto a una costante raccolta di dati personali invasiva ed estrattiva.

La normalizzazione dei servizi progettati da e per gli adulti crea un ambiente che va oltre le capacità di sviluppo dei più giovani, che è difficile da gestire e li espone a un’ampia gamma di rischi sistemici. Internet, infatti, non è stata creata pensando ai più giovani e chi rischia di pagare il prezzo più alto sono proprio loro, la cui inesperienza, legata principalmente all’età, il bisogno di sperimentarsi e la non comprensione piena delle dinamiche di funzionamento del mezzo, possono aumentare la loro sovraesposizione e vulnerabilità online come offline. Perché online e offline sappiamo oggi non essere due mondi separati e le distinzioni scontate come quelle fra reale e virtuale diventano labili, fluttuanti e incerte.

Per questo, l’Unione europea vuole assicurarsi che tutti possano divertirsi online, imparare nuove cose e ottenere informazioni rimanendo al sicuro e protetti e che le nuove tecnologie e le piattaforme online rispettino i diritti digitali di tutti.

Proprio per rispondere a queste necessità l’UE ha approvato il Digital Service Act (DSA), che mira a rendere Internet un luogo più sicuro per i cittadini europei, compresi i più giovani. La legislazione mira a “creare uno spazio digitale più sicuro all’interno del quale siano protetti i diritti fondamentali di tutti gli utenti dei servizi digitali”.

Il DSA farà in modo che tutti i servizi digitali che usano in particolare i più giovani, come le “Piattaforme online di dimensioni molto grandi”, (o “VLOP”) come Instagram, Snapchat, TikTok, YouTube ecc. facciano tutto il possibile per proteggere i diritti degli utenti, tenerti al sicuro e fermare la diffusione di contenuti illegali o inappropriati.

Il DSA stabilisce che i contenuti a cui accedono online sui siti e sui social media devono corrispondere alla loro età e ai loro interessi. È importante, dunque, che le piattaforme riconoscano e agiscano velocemente su qualunque contenuto possa violare i diritti e la dignità delle persone, la loro privacy e la loro libertà di espressione.  Il DSA vuole che le piattaforme online facciano in modo di rispettare in particolare la privacy e la sicurezza dei più giovani e tengano conto dell’impatto che i loro servizi hanno su questioni importanti come la tenuta democratica, il benessere mentale e fisico degli utenti e tutte le forme di violenza di genere.

Gli obiettivi principali della normativa sono:

§  Proteggere meglio i consumatori e i loro diritti fondamentali online.

§  Stabilire una forte trasparenza e un chiaro quadro di responsabilità per le piattaforme online.

§  Rendere i più giovani non più soggetti a pubblicità mirata poiché il DSA richiede un'attuazione rigorosa dei divieti di profilazione e di data mining di bambini/e e ragazzi/e e. Oltre a questi nuovi limiti sull’uso dei dati dei più giovani, sono vietati anche gli annunci mirati basati su indicatori sociali come l’appartenenza politica, il credo religioso, il genere, le condizioni di salute.

§  Il DSA assume una posizione più dura nei confronti degli algoritmi e della promozione algoritmica di contenuti rivolti a bambini/e e ragazzi/e. Le nuove norme vietano severamente infatti l’uso di contenuti promossi algoritmicamente dannosi per i più giovani, come video relativi al suicidio, all’autolesionismo e ai disturbi alimentari.

§  Con questa nuova legge, l’UE richiede inoltre alle piattaforme e agli intermediari di assicurarsi che i loro termini di servizio e condizioni d’uso possano essere facilmente compresi dai più giovani. Ciò dovrebbe rendere più semplice per i bambini/e e ragazzi/e comprendere come i loro dati vengono utilizzati e archiviati dai fornitori.

 

Nell’aprile del 2023 la Commissione europea ha annunciato quali piattaforme con più di 45 milioni di utenti nella Ue vengono considerate “Piattaforme di dimensioni molto grandi” (VLOP) o “Motori di ricerca di dimensioni molto grandi” (VLOSE). Tra questi ci sono Amazon, Apple, Facebook, Twitter, Wikipedia, Google Maps e molti altri.

Entro settembre del 2023 queste piattaforme e questi motori di ricerca di dimensioni molto grandi dovranno seguire tutte le regole del DSA.

A partire da febbraio del 2024 tutti i servizi online, grandi e piccoli, dovranno seguire le regole del DSA.

La Ue e gli Stati membri controlleranno che queste regole vengano seguite e possono multare le aziende che le infrangono.

#Tematiche, #Privacy e Sicurezza dati, #Consigli Utili e Strumenti, #in evidenza,
Tutti i Target,


Allegati



Torna alla lista