fbpx

¿Hasta qué punto las redes sociales son seguras para los niños?

niños_redes_sociales_social_media

Ahora que las escuelas están cerradas a causa de la pandemia de Covid-19 (el nuevo coronavirus), se puede entender que los padres permitan que sus hijos se distraigan más tiempo del habitual con teléfonos y tabletas, mientras sus progenitores intentan trabajar.

Resulta irónico que en las situaciones normales los padres se enfrenten a un combate diario para lograr que sus pequeños se aparten de la pantalla. Pero, tal como se nos recuerda en todo momento, nos hallamos en una situación sin precedentes.

Si arrojamos una mirada más amplia a la cuestión –y dejamos aparte este último mes–, las estadísticas recientes indican que los niños están ganando la batalla –y los adultos la están perdiendo–, porque se pasan más tiempo que nunca pegados a sus aparatos.

En un reciente informe de la agencia de estudios de mercado Childwise se constata que los pequeños acceden cada vez con mayor facilidad a los smartphones, ya que el 47% de los niños entre cinco y diez años poseía un móvil en 2019, frente al 38% en 2018, y la cifra entre los siete y los dieciséis años superaba el 66%.

En el Informe de Childwise correspondiente a 2020 también se afirma que los niños están usando sus teléfonos durante períodos de tiempo más largos que antes. De hecho, uno de cada cuatro niños pasa de cuatro a seis horas diarias conectado.

Simon Leggett, director de investigación, ha explicado a Mobile World Live (MWL) que los niños utilizan sobre todo la mensajería. En 2019 la ha utilizado un 75%, mientras que un 72% usa el teléfono móvil en juegos y un 63% visita redes sociales y aplicaciones de vídeo.

La firma clasifica la plataforma de vídeo YouTube como el servicio favorito de los niños en 2019, seguido por las redes sociales Snapchat, Instagram y TikTok, y los juegos en línea Fortnite, Roblox y Minecraft.

Childwise destaca que WhatsApp es la aplicación más usada. Más de la mitad de un total de 932 niños de 7-16 años se comunicaba mediante el servicio de mensajería propiedad de Facebook.

Leggett entiende que el mismo hecho de que el teléfono móvil pueda ser propiedad de un niño dificulta a los padres o tutores la supervisión de los contenidos a los que acceden en línea, ya que “se trata de una propiedad tan privada que la mayoría lo lleva, literalmente, pegado al cuerpo”. Por ello, los adultos confían en muchos casos en que las firmas tecnológicas hagan lo necesario para garantizar que los más jóvenes estén protegidos mientras naveguen.

YouTube, que los niños utilizan un promedio de casi dos horas y media al día, cuenta con una oferta específica para menores que garantiza una experiencia de visionado de vídeos más segura. El servicio de vídeos de Google se esfuerza por impedir que los niños accedan a materiales nocivos mediante una combinación de filtros automatizados, supervisión humana y comentarios de los usuarios. Con todo, reconoce que no todos los contenidos de la versión para niños están sometidos a la supervisión humana y se compromete a llevar a cabo revisiones rápidas en los casos en que se denuncie que un vídeo es inapropiado.

Seguridad en las redes sociales

Una investigación independiente sobre el abuso sexual infantil realizada en el Reino Unido descubrió un rápido incremento de los casos de captación de menores en las redes y señaló que los contenidos perjudiciales en las redes sociales suponían un importante problema. Las aplicaciones más citadas han sido Facebook, Instagram y Snapchat. ¿Cómo abordan el problema las firmas matrices Facebook y Snap?

David Miles, jefe de seguridad de Facebook en Europa, Próximo Oriente y África, afirma que el gigante de las redes sociales ha liderado la industria “en el combate contra esta lacra” y ha efectuado enormes inversiones en soluciones muy elaboradas, “como por ejemplo tecnología para contrastar fotografías y vídeos, que nos permite eliminar contenidos perjudiciales con la mayor celeridad”.

Miles señala que la explotación sexual de los niños es un problema de toda la industria y promete que la empresa seguirá desarrollando nuevas tecnologías y colaborará con las fuerzas del orden y con expertos en protección de la infancia.

Facebook explica que un equipo de más de 35.000 personas trabaja en la supervisión del contenido de sus plataformas y la supresión de materiales que se consideren inapropiados.

La empresa asegura haber retirado entre julio y septiembre de 2019 más de 12 millones de ítems de contenido de su red principal y de Instagram, debido a infracciones contra sus directrices sobre desnudez de niños y explotación sexual. La mayoría de los materiales (el 95%) fueron eliminados sin necesidad de denuncias de un tercero.

Explica que ha invertido en varios métodos de combate contra los abusos, como por ejemplo la tecnología de “hashing”, que crea una huella digital para el contenido perjudicial y permite su eliminación inmediata.

Por su parte, y pese a las conclusiones expuestas en el informe de la citada investigación independiente, Snap ha asegurado a MWL que es muy difícil que se utilice Snapchat para la captación de menores en línea, debido a los procesos de seguridad incorporados. Así, por ejemplo, la imposibilidad predeterminada de recibir mensajes de personas que el usuario no ha agregado como amigos, y una configuración que impide compartir la ubicación del usuario, salvo con sus amigos.

Snap también afirma que es imposible que los potenciales depredadores acechen a los usuarios en su aplicación, porque no existen perfiles públicos con ubicación, edad ni fotografías, y la lista de amigos de los usuarios tampoco se comparte públicamente.

La firma ha declarado que la mayoría de sus operaciones de supervisión están a cargo de seres humanos, pero que también está desarrollando herramientas de aprendizaje automático para identificar conductas que apunten a la presencia de cuentas abusivas u otras actividades sospechosas de engaño pederasta.

Si bien no ha revelado el número de personas que trabajan en su equipo de Confianza y Seguridad, Snap asegura que sus empleados pueden intervenir en un plazo de 24 horas ante cualquier motivo de alarma, y a menudo responden durante las dos horas siguientes a la presentación de una denuncia.

TikTok, otra de las aplicaciones más populares entre los niños, también recurre a una combinación de tecnologías y supervisión humana para identificar, revisar y eliminar de su servicio los contenidos peligrosos o abusivos.

¿Qué más se puede hacer?

Si bien el aprovechamiento de recursos tecnológicos y los equipos de seguridad especializados pueden lograr resultados positivos, es importante señalar que los violadores de contenidos y los delincuentes suelen ir un paso por delante de dichas medidas.

La investigación independiente insistió en que las empresas de Internet debían esforzarse por filtrar las imágenes y vídeos antes de que se muestren en sus plataformas. Aún no se sabe si ello exigirá la ampliación de los equipos de supervisión humanos o un desarrollo creativo de la tecnología disponible, o una combinación de lo uno y lo otro, pero mientras exista un interés genuino por la seguridad de Internet, podremos concebir un entorno sin contenidos perjudiciales.

Las opiniones editoriales expresadas en este artículo son exclusivas de la autora y no reflejan necesariamente los puntos de vista de la GSMA, sus Miembros o Miembros Asociados.

Publicado originalmente en en Mobile World Live en español

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.