La normativa sui minori nel digitale

I giovani di oggi sono nativi digitali, ma ciò non significa necessariamente che sappiano utilizzare le tecnologie dell’informazione e della comunicazione (in inglese ICT, o più comunemente IT) in modo corretto e responsabile.

Cresciuti circondati da dispositivi tecnologici e dall’uso quotidiano di Internet, i bambini di oggi imparano a utilizzare gli strumenti informatici senza alcuna difficoltà. Nonostante ciò, tuttavia, come sottolineato in una guida realizzata in Spagna dall’Observatorio de la Infancia (Agenzia per i bambini) e dall’Istituto nazionale di sicurezza informatica, i bambini e gli adolescenti non sempre sanno come navigare in modo sicuro nell’ambiente digitale, difficoltà comune a molti altri ambiti della loro vita, dal momento che non sono consapevoli dei potenziali pericoli né sanno agire in modo responsabile.

Negli ultimi anni si è assistito allo sviluppo di normative e misure politiche incentrate sulla protezione dei diritti dei minori nell’ambiente digitale, nonché alla promozione di una serie di iniziative, sia da parte dell’Unione europea che dei singoli Stati membri, volti a educare e sensibilizzare i giovanissimi in questo settore. Vediamo di che cosa stiamo parlando.

A livello europeo

Nel 2021, la Commissione europea ha pubblicato la Strategia europea per un’Internet migliore per i ragazzi 2021-2024, dedicando una delle sezioni all’area della società digitale e dell’informazione. In questa sezione vengono presentate le misure che l’Ue, gli Stati membri (Sm) e le società informatiche devono adottare o promuovere per garantire che i bambini possano navigare in sicurezza nell’ambiente digitale e sfruttarne le opportunità.

All’interno del quadro giuridico dell’Unione europea per la protezione dei diritti dei bambini, troviamo più direttive che regolamenti: l’Ue lascia la stragrande maggioranza delle decisioni politiche in materia nelle mani degli Stati membri, limitandosi a definire gli obiettivi da raggiungere. A tal fine esistono quattro direttive della Commissione europea che riguardano i diritti dei minori nell’ambiente digitale, una decisione quadro (che ha le stesse implicazioni politiche di una direttiva) e un regolamento che ha portata generale e impone un obbligo per tutti gli Stati membri.

Ad oggi, i diritti dei bambini su Internet sono protetti dal seguente quadro giuridico:

Per dimostrare il suo impegno a favore dei diritti dei bambini nell’ambiente digitale, la Commissione europea ha collaborato con Insafe – una rete europea di centri di sensibilizzazione che promuovono un uso più sicuro e migliore di Internet – e Inhope – una Ong che si batte contro i contenuti di abuso sessuale sui minori su Internet – per lanciare la piattaforma Better Internet for Kids. Il sito web contiene informazioni sulla legislazione di 30 Paesi europei (vale a dire gli stati membri dell’Ue più Norvegia, Islanda e Regno Unito) dedicata alla protezione dei bambini nell’ambiente digitale.

Convenzione delle Nazioni Unite sui diritti dell’infanzia

Nel 2021, anche la Convenzione delle Nazioni Unite sui diritti dell’infanzia ha sottolineato l’importanza dell’azione degli Stati per «proteggere i minori da contenuti dannosi e inaffidabili attraverso la creazione di misure legislative e amministrative che impediscano ogni tipo di violenza, abuso, maltrattamento o sfruttamento», come spiegato in questo articolo di María del Pilar Tintoré, specializzata in diritti dei bambini nell’ambiente digitale.

Il Commento Generale n. 25 del Comitato sui diritti dell’infanzia mira a «fornire una guida sulle pertinenti misure legislative, politiche e di altro tipo atte a garantire il pieno rispetto dei loro obblighi ai sensi della Convenzione e dei suoi protocolli opzionali alla luce delle opportunità, dei rischi e delle sfide nel promuovere, rispettare, proteggere e soddisfare tutti i diritti dei bambini nell’ambiente digitale».

Questo commento delle Nazioni Unite precisa che la politica degli Stati membri deve progredire in cinque aree al fine di proteggere i diritti dei bambini nel digitale. Gli Stati devono prima di tutto garantire che i giovanissimi abbiano diritto alla giustizia e al risarcimento se i loro diritti sono stati violati; devono inoltre vietare l’uso dei bambini a fini commerciali, garantire il diritto dei bambini alla privacy, rafforzare le misure di sicurezza per proteggerli dalla violenza digitale e promuovere la creazione di contenuti adeguati all’età che consentano loro di trovare informazioni utili su Internet.

I singoli Stati

Nel terzo rapporto della piattaforma Better Internet for Kids (Bik) pubblicato nel 2020, si analizza come ciascuno degli Stati membri dell’Ue (oltre a Islanda, Norvegia e Regno Unito) stiano perseguendo la strategia promossa dalla piattaforma per rendere Internet un posto migliore e più sicuro per i bambini.

Secondo i dati del rapporto Bik, nella maggior parte (il 50 per cento) dei trenta Stati inclusi nello studio, esiste una legislazione o un regolamento a livello nazionale volto a creare un ambiente sicuro per i bambini su Internet (Pilastro 3 della strategia). In cinque Paesi (il 16,6 per cento) esistono politiche non regolamentari, ovvero lo Stato non vieta né richiede nulla per legge, ma può mettere in atto altri tipi di politiche volte a creare un ambiente sicuro per i bambini su Internet. In otto paesi (26,6 per cento),le politiche riguardanti quest’area fanno parte di politiche più ampie, ovvero non esistono politiche specifiche. E, infine, in due Paesi (6,6 per cento), non esiste una vera e propria politica che affronti questo argomento.

Alcuni degli argomenti inclusi nel rapporto e utilizzati per classificare le politiche dei Paesi sono: l’esistenza di impostazioni sulla privacy adeguate all’età, il controllo genitori per le piattaforme online, le classificazioni per età e contenuto e i controlli per la pubblicità online.

Negli ultimi anni, le politiche volte a rendere Internet un ambiente più sicuro per i bambini hanno acquisito uno status giuridico più forte e di conseguenza c’è un numero elevato di Paesi che attualmente hanno regolamenti o regole in vigore (50 per cento). Secondo lo stesso rapporto, ciò è dovuto soprattutto al fatto che gli Stati membri dell’Ue hanno dovuto adeguare la propria legislazione nazionale per conformarsi alla Direttiva sui servizi di media audiovisivi (2018), che si occupa specificamente di aumentare la disponibilità e l’uso dei controlli parentali.

Se osserviamo le misure protettive e regolamentari – incluse le leggi, ma non limitate a quelle – adottate dai Paesi europei, possiamo determinare se queste misure siano state messe in atto nell’ultimo anno, in quelli precedenti, o se addirittura non esistano. Nel Regno Unito, in Spagna e in Portogallo, ad esempio, non esistevano meccanismi per segnalare contenuti potenzialmente dannosi per i minori, come adescamento o cyberbullismo, prima del 2020.

In altri Paesi, come Svezia, Ungheria, Spagna, Croazia e Bulgaria, non esistono misure di autoregolamentazione da parte del settore in materia di impostazioni della privacy adeguate all’età. Al contrario, in Stati come Francia, Irlanda e Norvegia, esistono. L’Irlanda, la Francia, il Portogallo e la Lituania hanno, dal 2020, una sorta di meccanismo per migliorare la cooperazione tra i canali di segnalazione – la Polizia, ad esempio – e l’industria o le piattaforme digitali, al fine di rimuovere materiale contenente qualsiasi forma di abuso sui minori. In generale, la maggior parte dei Paesi stava già promuovendo la classificazione per età e contenuto da prima del 2020.

Il caso della Spagna

Sebbene la legislazione spagnola non disponga di un regolamento specifico sulle challenge online, ci sono una serie di leggi che menzionano i diritti digitali dei bambini. Inoltre, con la nuova legge sulla protezione dei bambini e degli adolescenti dalla violenza presentata nel 2021, sono state apportate alcune modifiche al regolamento che potrebbe proteggere i minori da alcune sfide virali dannose.

Rodolfo Tesone, avvocato specializzato in trasformazione digitale e membro del gruppo di esperti formato per redigere la Carta spagnola dei diritti digitali, ha spiegato a Verificat che il regolamento è vago e non esiste un unico organismo che regoli le questioni digitali. Il codice penale fornisce la massima tutela in tal senso, ma non ha molte applicazioni in ambito digitale, ha affermato Tesone. Non esiste nemmeno una regolamentazione completa sull’accesso ai contenuti, poiché dipende principalmente dalle stesse piattaforme digitali che li diffondono. Questo «apre il dibattito sulla libertà d’espressione opposta al filtraggio/censura, anche se non spetta a queste piattaforme – le aziende private – difendere o limitare le libertà dei cittadini», ha spiegato Tesone.

A questo proposito, la recente legge sulla protezione dei bambini dalla violenza (8/2021) introduce una serie di raccomandazioni con l’obiettivo di creare «ambienti digitali sicuri». Secondo questa legge, le istituzioni pubbliche devono favorire la loro collaborazione con il settore privato al fine di standardizzare il sistema di classificazione per età e di «etichettatura intelligente dei contenuti digitali» (articolo 46).

In Spagna, come nel resto dell’Unione europea, esiste un modello ibrido che coinvolge la regolamentazione statale e privata delle aziende per il monitoraggio dei contenuti che vengono pubblicati. Tuttavia, come sottolineato da Tesone, uno dei problemi riscontrati nella regolamentazione delle piattaforme digitali è che il contenuto viene rivisto solo dopo che è stato pubblicato. Quindi, una volta che il contenuto è diventato virale, anche dopo che una piattaforma lo ha rimosso perché identificato come potenzialmente dannoso per i bambini, il “danno” è già stato fatto. Secondo Tesone «se pensiamo a ciò dal punto di vista della protezione dei minori, anche le piattaforme digitali devono disporre di meccanismi per controllare i contenuti prima che vengano pubblicati» ma, per mancanza di risorse, mancanza di interesse o semplicemente perché non è loro dovere tutelare i diritti individuali, le aziende non sempre lo fanno.

In definitiva, l’accesso dei bambini ai contenuti online dipende nella maggior parte dei casi dalla supervisione dei genitori. E quando i genitori non sono digitalmente alfabetizzati o consapevoli dei rischi, potrebbero non supervisionare i propri figli in modo appropriato o sufficientemente consapevole. Pertanto, nell’interesse della tutela dei diritti fondamentali dei minori, l’articolo 84 della legge organica sulla protezione dei dati personali e la garanzia dei diritti digitali (3/2018) invita i genitori o i tutori dei minori a garantire che i loro figli utilizzino Internet e altri servizi digitali in modo equilibrato e responsabile. Lo stesso articolo prevede anche che il Ministero della Procura (in spagnolo: Ministerio Fiscal) intervenga se le immagini di minori o i dati personali di minori vengono utilizzati contro i loro diritti.

Nel caso dei reati commessi in ambiente digitale che potrebbero colpire i minori, nel 2015, come stabilito dalla Legge Organica 13/2015, i reati commessi con mezzi tecnologici sono stati emendati e inseriti nel codice penale. Secondo Pilar Tintoré, avvocato specializzato in diritti dei bambini e degli adolescenti, questo aggiornamento ha contribuito ad ampliare la portata della legge per includere crimini che prima erano difficili da definire. La recente legge a tutela dei minori dalla violenza ha anche inserito nel codice penale una serie di reati.

Ad esempio, all’articolo 143, la legge prevede che la diffusione o diffusione pubblica di contenuti tramite internet, telefono o qualsiasi altro mezzo tecnologico che possa promuovere, favorire o incitare al suicidio di minori è punita con la reclusione da uno a quattro anni .

Accesso dei minori alle piattaforme digitali: Spagna

In Spagna l’età minima richiesta per iscriversi a un social network è di 14 anni, secondo la legge sulla protezione dei dati personali e il garante dei diritti digitali (3/2018). Tuttavia, il regolamento europeo sulla protezione dei dati personali afferma esplicitamente che il trattamento dei dati personali di un minore è considerato lecito solo se il minore ha 16 anni o più (articolo 8). Prima dei 16 anni, l’iscrizione a un social network richiede il consenso dei genitori o dei tutori del bambino. Quindi c’è una discrepanza tra le due leggi e, per di più, le società sono soggette alla legge del Paese in cui sono registrate. Ciò significa che l’età minima per iscriversi a un social network può variare da piattaforma a piattaforma.

Instagram e Facebook richiedono che gli utenti abbiano almeno 14 anni per registrarsi; nel caso di TikTok, l’età è di 13 anni. I minori hanno bisogno del consenso di un genitore o di un tutore per iscriversi. Ma a parte il requisito di età minima, c’è il problema del metodo di verifica utilizzato dalle piattaforme per determinare se le persone che chiedono di iscriversi hanno effettivamente l’età che dichiarano di avere. Questo problema è evidenziato in uno studio di Laura Davara pubblicato dall’Agenzia spagnola per la protezione dei dati. Tesone sostiene questa tesi, affermando che, poiché il consenso è prestato online, «le piattaforme non dispongono di un meccanismo sostanziale per verificare correttamente l’età degli utenti».

Per affrontare questo problema, il social network spagnolo Tuenti ha sviluppato un metodo di doppia verifica, ovvero una verifica sia online che offline, per iscrivere un minorenne. Gli utenti dovevano fornire una copia della loro carta d’identità per provare la loro età e, grazie a questo meccanismo, la piattaforma è riuscita a garantire che gli utenti soddisfacessero i requisiti di età e consenso dei genitori. Lo studio di Davara include una dichiarazione degli stessi dirigenti di Tuenti, secondo cui oltre il 90 per cento degli utenti a cui era stato chiesto di verificare di avere 14 anni o più fornendo il proprio documento d’identità non ha risposto alla richiesta e, quindi, ha subito il blocco dei proprio account. Tuttavia, Tuenti non esiste più e le altre piattaforme online non hanno sviluppato meccanismi di questo tipo.

Articolo scritto da Verificat.cat

Continua a leggere