Los niños, actualmente, son nativos digitales, pero esto no implica que sepan utilizar correctamente y de forma responsable las tecnologías de la información y de la comunicación.

El hecho de haber crecido rodeados de aparatos tecnológicos y del uso cotidiano de internet hace que los menores sepan utilizar las TIC a nivel instrumental sin ningún problema. Sin embargo, como apunta una guía realizada en España por el Observatorio de la Infancia y el Instituto Nacional de Ciberseguridad, los niños, niñas y adolescentes no saben desenvolverse en el entorno digital de forma segura, de la misma forma que no saben hacerlo en muchos otros ámbitos de su vida, porque no conocen los riesgos que puede conllevar ni cómo navegar de forma responsable. De la misma opinión son varios investigadores italianos que identifican en el colegio un lugar en el que formarse, también desde el punto de vista digital. La escuela puede, de hecho, asumir un rol estratégico a la hora de guiar a las nuevas generaciones hacia el uso ético y responsable de internet y también a la hora de proponer la red como un instrumento que puede potenciar el estudio y los procesos de aprendizaje individuales. Para hacerlo, también los docentes deben ser formados de manera consciente sobre los riesgos y beneficios de internet.

Esto explica la legislación y las diferentes medidas políticas, en muchos casos no reglamentarias, que en los últimos años se han desarrollado para proteger los derechos de los menores en el ámbito digital y también las diferentes iniciativas que se han impulsado, ya sea desde la Unión Europea o desde los gobiernos nacionales, para formar y sensibilizar a los niños y niñas en este ámbito.

A nivel Europeo

Este 2021 la Comisión Europea ha publicado la Estrategia para los Derechos de la Infancia 2021-2024, en la cual dedica una de las seis áreas temáticas a la sociedad digital y de la información. En este apartado se explicitan cuáles deberían ser las medidas que la UE, los Estados Miembro (EM) y las empresas TIC han de impulsar o promover para garantizar que los menores puedan navegar de forma segura en el entorno digital y aprovechar sus oportunidades.

Dentro del marco legal de la Unión Europea para proteger los derechos de los niños en este ámbito encontramos más directivas que reglamentos, es decir, la UE deja en manos de los Estados Miembro la gran mayoría de decisiones políticas de esta temática y solo fija los objetivos a alcanzar. De esta forma, hay cuatro directivas de la Comisión Europea que afectan a los derechos de los menores en el entorno digital, una decisión marco (que tiene las mismas implicaciones políticas que una directiva) y un reglamento, que sí que es de alcance general e impone una obligación para todos los EM. Por lo tanto, en líneas generales los derechos infantiles en Internet quedan protegidos por el siguiente marco legal:

Para mostrar su compromiso con los derechos de los menores en el ámbito digital, la Comisión Europea junto a Insafe -red europea de centros de sensibilización que promueve un uso más seguro y mejor de Internet- y Inhope -ONG que lucha contra el contenido de abuso sexual infantil en Internet- han impulsado la plataforma Better Internet for Kids. En este portal web se ofrece información sobre la legislación que tienen 30 países europeos (estados miembros UE, Noruega, Islandia y Reino Unido) para proteger a los niños y niñas en el ámbito digital.

Convención sobre los Derechos del Niño de Naciones Unidas

Este 2021 el Comité de los Derechos del Niño de las Naciones Unidas recalcó también la importancia que los estados “protejan a los menores de edad contra los contenidos nocivos y poco fiables, mediante la creación de medidas legislativas y administrativas que impidan cualquier tipo de violencia, abuso, malos tratos y explotación”, según explicaba en este artículo María del Pilar Tintoré, especializada en el derecho de menores en el entorno digital.

La Observación General número 25 del Comité de Derechos del Niño tiene como objetivo: “ofrecer orientación sobre las medidas legislativas, normativas y de otra índole pertinentes, destinadas a garantizar el pleno cumplimiento de las obligaciones contraídas en virtud de la Convención y sus Protocolos Facultativos, habida cuenta de las oportunidades, los riesgos y los desafíos que plantean la promoción, el respeto , la protección y el ejercicio efectivo de todos los derechos de los niños en el entorno digital”.

Esta observación de la ONU indica que la política de los estados debe evolucionar en cinco ámbitos para proteger los derechos de los menores en el entorno digital. En primer lugar, estos tienen que tener derecho a justicia y reparación en caso de que sus derechos se vean vulnerados, prohibir utilizarlos con fines comerciales, garantizar su derecho a la privacidad, reforzar las medidas de seguridad y protección para protegerlos de la violencia digital y fomentar la creación de contenidos adaptados a su edad para que éstos encuentren información que les sea útil en internet.

Los estados a título individual

En el tercer informe realizado por el portal Better Internet for Kids (BIK) y publicado en 2020 se analiza cómo están llevando a cabo los diferentes estados miembros de la UE, Islandia, Noruega y Reino Unido la estrategia impulsada por esta misma plataforma para garantizar la buena navegación en internet de los menores.

Según los datos del informe de BIK, de los treinta países estudiados en la mayoría (50%) hay legislación o regulación estatal dirigida a crear un entorno seguro para los menores (pilar 3 de la estrategia). En 5 países (16,6%) hay políticas no reglamentarias, es decir, el estado no prohíbe u obliga mediante una ley pero puede hacer otro tipo de políticas encaminadas a crear un entorno seguro para los menores en internet. En ocho países (26,6%) las políticas dirigidas en este ámbito forman parte de políticas más amplias, es decir, no hay políticas concretas. Y, por último, en dos países (6,6%) no existe ningún tipo de política que aborde esta temática.

Algunos de los temas que tiene en cuenta el informe para clasificar las políticas de los países son: si existen ajustes de privacidad adecuados a la edad, disponibilidad de control parental sobre las plataformas online, clasificación por edades y también por contenidos y control sobre la publicidad en línea. 

En los últimos años cada vez se han formalizado más las políticas para conseguir que internet sea un entorno más seguro para niños y niñas y, por eso, el número de países que actualmente tienen legislación o normativas desarrolladas en este ámbito es elevado (50%). Según confirma el mismo informe esto es debido sobre todo a que los Estados Miembros de la UE han tenido que adaptar su legislación nacional a la Directiva de Servicios Audiovisuales (2018) que aborda concretamente la mayor disponibilidad y uso de controles parentales.

Si nos fijamos en las medidas de protección y regulación que los países europeos han adoptado -no solo leyes- podemos ver si estas medidas son del último año, anteriores o si por el contrario, no existen. Por ejemplo, en Reino Unido, España y Portugal no existían antes de 2020 mecanismos para denunciar contenidos que podían ser perjudiciales para los niños, como grooming o ciberacoso.

En algunos países como Suecia, Hungría, España, Croacia y Bulgaria no existen medidas de autorregulación por parte de la industria sobre la configuración de la privacidad adecuada a la edad. En cambio, en otros países como Francia, Irlanda o Noruega sí que las hay. Países como Irlanda, Francia, Portugal y Lituania sí que tienen desde 2020 mecanismos de algún tipo para mejorar la cooperación entre las líneas de denúncia -policía- y la industria o plataformas digitales para retirar material de abuso infantil. Por otra parte, a nivel general la mayoría de países sí que promueve de alguna forma u otra la clasificación por edades y la clasificación de contenidos desde ya antes del 2020.

El caso español

La legislación española no contiene regulación específica sobre los retos virales en internet, pero sí que existen diversas leyes en las que se habla de los derechos digitales de los menores. Además, con la nueva ley de protección de la infancia y la adolescencia frente a la violencia impulsada en 2021 se han introducido algunas modificaciones en la regulación que pueden proteger a los menores de algunos retos virales dañinos.

El abogado especializado en temas de transformación digital y uno de los 15 miembros del grupo de expertos creado para redactar la Carta de Derechos Digitales de España Rodolfo Tesone explica que la regulación es dispersa y no existe un cuerpo único que regule las cuestiones digitales. El Código Penal es el que ofrece más protección en este sentido, pero no tiene demasiadas intervenciones en el ámbito digital, afirma Tesone. En cuestión de acceso a los contenidos tampoco existe una regulación amplia, ya que esta depende eminentemente de las mismas plataformas digitales que difunden el contenido. Esto “abre el debate de libertad de expresión versus filtrado/censura, pero no corresponde a estas plataformas -empresas privadas- defender y limitar las libertades de los ciudadanos”, explica Tesone.

En este sentido, la reciente ley de protección de la infancia frente a la violencia (8/2021) introduce algunas recomendaciones con el fin de crear “entornos digitales seguros”. Según esta ley, las administraciones públicas tienen que fomentar la colaboración con el sector privado para estandarizar la clasificación por edades y el “etiquetado inteligente de contenidos digitales” (artículo 46).

En España, como en el resto de la Unión Europea, existe un modelo híbrido entre la regulación estatal y la regulación privada de las empresas para controlar el contenido que se publica. Sin embargo, uno de los problemas que presenta la regulación de las plataformas es que la revisión del contenido se hace después de su publicación, según apunta el abogado especialista. Esto implica que si un contenido se ha hecho viral, por mucho que la plataforma lo retire porque ha detectado que puede ser dañino para los menores, el “daño” ya está hecho. “Desde una perspectiva del menor, las plataformas digitales deberían tener mecanismos para revisar el contenido incluso antes de ser publicado”, pero por falta de recursos, por falta de interés o porque simplemente no es su deber proteger los derechos individuales, las empresas no siempre lo hacen, explica Tesone.

Al final, el acceso de los menores a los contenidos digitales depende la mayoría de las veces del control parental y si estos a su vez tampoco tienen competencias digitales y no conocen los riesgos, puede que no ejerzan esa supervisión de manera correcta y consciente. En este sentido, la ley orgánica de protección de datos personales y garantía de los derechos digitales (3/2018) en el artículo 84 emplaza a los padres, madres o tutores de los menores que procuren un uso equilibrado y responsable de internet y otros servicios digitales con el fin de preservar sus derechos fundamentales. El mismo artículo también dice que el Ministerio Fiscal intervendrá cuando se utilicen imágenes de menores o información personal suya en contra de sus derechos.

En el caso de los delitos cometidos en el entorno digital y que pueden afectar a los menores, en 2015 con la ley 13/2015 se modificaron e introdujeron delitos cometidos a través de medios tecnológicos en el Código Penal. Esta actualización ha ayudado a dar cabida a delitos que antes eran difíciles de encajar, según explica Pilar Tintoré, abogada experta en derecho de la infancia y adolescencia. La reciente ley de protección de los menores frente a la violencia también ha incorporado en el Código Penal algunos supuestos delictivos. Por ejemplo, en el artículo 143 de esta ley se especifica que la distribución o difusión pública a través de internet, del teléfono o de cualquier otra tecnología de contenidos que puedan promover, fomentar o incitar al suicidio de los menores será castigada con pena de prisión de uno a cuatro años.

Registro de menores en plataformas digitales: España

En España la edad mínima para poder registrarse en una red social es de 14 años, según la ley de protección de datos personales y garantía de los derechos digitales (3/2018). Sin embargo, el reglamento europeo sobre protección de datos explicita que el tratamiento de los datos personales de un niño se considerará lícito cuando tenga como mínimo 16 años (artículo 8). Antes de esta edad, se requerirá el consentimiento de los padres, madres o tutores. Por tanto, hay una divergencia entre las dos leyes y, además, las propias compañías están sujetas a la ley del país donde están registradas. Todo ello, hace que la edad de acceso a una red social u otra varíe.

Instagram y Facebook requieren tener como mínimo 14 años para poder registrarse y en el caso de TikTok la edad baja a los 13. Los menores de estas edades para registrarse deben tener una autorización del padre, madre o tutor. Pero, más allá de la edad, el problema es la manera de verificar que el usuario que se registra tiene la edad que afirma tener, según un estudio de Laura Davara publicado por la Agencia Española de Protección de Datos. Rodolfo Tesone también comparte este argumento ya que, afirma que al tratarse de una autorización online, “la plataforma no tiene ningún mecanismo de verificación real de la edad de la persona”.

Para hacer frente a esta problemática, en España existió una experiencia pionera con la red social Tuenti, que requería una doble verificación, online y offline, para poder registrar a menores. De esta forma, los usuarios tenían que enviar el documento de identidad para que fuese validado y consiguieron mediante este mecanismo que las personas de la plataforma cumpliesen los requisitos de edad y de autorización parental. El estudio de Devara dice que según los propios dirigentes de Tuenti más de un 90% de los usuarios a los cuales se les pedía acreditar que eran mayores de 14 años mediante un documento, no respondieron a la solicitud y, por tanto, sus cuentas fueron bloqueadas. Sin embargo, Tuenti ya no existe y las demás plataformas digitales no han incorporado mecanismos similares.

Este artículo ha sido escrito por Verificat.cat

Sigue leyendo