¿Podemos estar tranquilos con lo que ven los niños en YouTube? No conviene bajar la guardia.
En los últimos días, varios usuarios han denunciado la aparición de
comentarios de tipo pedófilo en vídeos de 'youtubers' infantiles y la
inclusión de imágenes a favor del suicidio en mitad de episodios de
dibujos animados en la plataforma de vídeos.
¿Cómo se puede evitar que
los niños no tengan que ver eso?
No es nada fácil.
El penúltimo golpe contra la reputación del gigante de los vídeos YouTube,
propiedad de Alphabet (la matriz de Google), llega a través de varias
denuncias en el portal estaounidense especializado en pediatría Pedimom.com.
Todo empezó con la denuncia pública de una médico anónima que vio,
junto a su hijo menor, un clip incrustado en un vídeo de dibujos
animados en el que aparecía un hombre que simulaba cortarse las muñecas.
Ese clip —el hombre aparece momentáneamente mientras simula autolesionarse el antebrazo y dice: "Recordad, niños, a los ancho para llamar la atención, a lo largo para obtener resultados"— se encontraba en mitad un contenido en YouTube Kids, la plataforma específica para contenidos orientados a los más pequeños.
Conviene recordar que la aplicación de YouTube Kids es diferente a YouTube.com,
de modo que los vídeos que están disponibles en esa aplicación se
controlan mediante una combinación de máquinas, personas en YouTube y
las respuestas de usuarios, con especial atención a las denuncias por contenidos inapropiados.
En el caso del clip antes mencionado sobre apología del
suicidio, la médico madre anónima reportó como inapropiado este
contenido y el vídeo fue inmediatamente retirado de YouTube Kids. Pero a
partir de la denuncia inicial, varios progenitores han ido señalando otros vídeos de dibujos animados en la plataforma con contenidos inapropiados.
"Trabajamos para asegurarnos de que los vídeos en
YouTube Kids sean amigables para la familia y nos tomamos el 'feedback'
[de los usuarios] muy en serio", comentó YouTube en un comunicado
enviado a este diario. "Apreciamos a las personas que nos notifican
sobre contenido problemático y hacemos posible que cualquiera pueda marcar un vídeo inapropiado".
La plataforma asegura que revisa "manualmente" los vídeos marcados por los usuarios "las 24 horas del día, los 7 días de la semana, y se eliminan los vídeos que no pertenecen a la aplicación".
Tal y como recuerda Ars Technica, durante años YouTube ha tenido que esforzarse para intentar evitar contenidos perjudiciales fuera del alcance de los niños, sobre todo aquéllos de contenido para adultos, con palabrotas, violencia o situaciones de contenido sexual inapropiado.
La semana pasada, sin ir más lejos, Nestlé, McDonald's, Disney, Epic Games y otras compañías retiraron sus anuncios de la plataforma por la polémica desatada a raíz de varios comentarios pedófilos por parte de usuarios en vídeos en los que aparecían menores de edad, informa la Agencia EFE.
Las compañías tomaron la decisión después del revuelo ocasionado por el vídeo colgado el pasado domingo por el bloguero Matt Watson en que mostraba los comentarios de tono pedófilo que varios usuarios habían dejado en contenidos en los que aparecían niñas.
*
Aunque los vídeos a los que hizo alusión Watson no
eran pornográficos ni explícitamente eróticos, y por tanto no atentaban
contra la reglas internas de YouTube, los usuarios identificaban
momentos en los que las niñas, que aparecían haciendo deporte o vestidas de animadoras, dejaban entrever partes íntimas.
Qué se puede hacer
Es realmente complicado frenar todo esto. En primer lugar, porque sería prácticamente imposible filtrar previamente
los contenidos de una plataforma que vive, precisamente, de la libertad
de cada cual para subir y publicar vídeos.
En segundo lugar, porque
realizar ese filtrado previo podría conculcar la libertad de expresión
al abrir una peligrosa puerta a una censura previa. En tercer lugar,
porque aún con todo no parece posible todavía entrenar una inteligencia artificial para detectar unos contenidos que varían constantemente.
"Hoy por hoy, teniendo en cuenta la Directiva de Comercio Electrónico que sigue vigente y la Ley de Servicios de la Sociedad de la Información
(LSSI, artículo 16), es necesario el conocimiento efectivo por parte de
la plataforma para poder actuar", comenta el abogado especializado en
tecnología Carlos Sánchez Almeida, que añade: "Sin conocimiento efectivo, YouTube no tiene una obligación de supervisión general de los contenidos; sólo debe responder a las peticiones de un organismo o un particular que lo reporte".
"Sin conocimiento efectivo, YouTube no tiene una obligación de supervisión general de los contenidos"
Para
este letrado, el problema en YouTube es el extraordinario volumen de
datos que maneja, con más de 400 horas de metraje subidas cada minuto:
"Con las propias herramientas internas no se puede saber que existen
esos contenidos, no se puede analizar todos los comentarios ni las
declaraciones de la gente".
El ingeniero de telecomunicaciones y abogado Sergio Carrasco, coincide en el diagnóstico: "Es muy complicado detectar esos contenidos de forma automática porque, de entrada, no tenemos una base de datos con la que comparar esos contenidos;
no se trata aquí de una copia de un contenido protegido, no se trata de
datos con los que yo podría entrenar una inteligencia artificial para
buscar contenidos similares, porque son muy variados".
"Por tanto", añade este experto, "es muy difícil que
tengamos un precedente suficientemente similar para que el sistema
automatizado llegue a detectarlo; incluso si se detectara de alguna
forma, con una variación sobre el mismo tema se podrían incluir otros
contenidos que saltasen esa capacidad".
No obstante, el abogado especializado David Maeztu opina que parece que se "privilegia" la retirada de contenidos que violan el 'copyright',
por ejemplo, frente al bloqueo de otros contenidos que pueden derechos
como el del honor, la intimidad o la protección a la infancia,
sencillamente "porque la retirada de contenidos protegidos con derechos
de autor es más fácil de realizar".
Quién es responsable
Las leyes, hoy por hoy, eximen a la plataforma de
responsabilidad excepto si tarda mucho en eliminarlos o bloquearlo una
vez alguien lo ha denunciado. "YouTube no tendría ninguna
responsabilidad, salvo desde el momento en que tiene conocimiento y no
actúe con prontitud para eliminar o bloquear ese contenido", confirma Almeida.
Otra cosa es el 'youtuber' que aparece haciendo apología del suicidio pudiese ser considerado como inductor al suicidio (artículo 143 del Código Penal), dado que la apología del suicidio no es delito en España. "Yo lo veo algo complicado",
puntualiza Almeida, "y en cualquier caso esa calificación dependerá del
fiscal y del juez; eso sí, las fuerzas de seguridad del Estado que
inicien la investigación estarán perfectamente legitimadas para realizar
dichas pesquisas".
Para David Maeztu, no cabe duda que la responsabilidad primera es de quien suba el vídeo. "En estos casos Google (YouTube) debería de ayudar dando toda la información necesaria para localizar al responsable,
pero claro, ya sabemos que es muy complicado", comenta, y añade: "No
cooperan si no se lo piden, y a veces los jueces no les exigen más".
Maeztu sostiene que "ya que esta empresa está en España, opera aquí y su
plataforma es accesible desde aquí, tendría que asegurarse de que
cuando un juez les pide algo no mande la petición a EEUU", algo que
complica todo ese trámite.
Por su parte, Sergio Carrasco sostiene que "existe claramente una responsabilidad de quien sube el vídeo, pero también de la plataforma ya que es un colaborador necesario, digamos, para distribuir ese contenido;
lo que sucede es que las exclusiones de responsabilidad que prevén la
Directiva de Comercio Electrónico y la LSSI impiden que se pueda
reclamar esta responsabilidad siempre y cuando actúen de forma expedita
una vez tenga conocimiento efectivo de que hospedan contenidos
ilícitos".
Este experto recuerda que lo mismo sucede, por ejemplo, con los vídeos de la Yihad.
"La única medida que puede ser efectiva contra este
problema sería una colaboración mayor de los usuarios y dotar
especialmente a YouTube Kids de una capacidad diferenciado de retirar
contenidos, que fuese mucho más expedito", sugiere Carrasco.
"Lógicamente, cada apelación debería pasar siempre por revisión humana,
que sabemos de algunos casos en los que se apela y el contenido sigue
estando disponible mientras se cursa esa apelación; y dado que todo esto afecta a menores, tal vez deberían adaptarse los términos y condiciones para indicar claramente que en el caso de una notificación el vídeo quedará bloqueado hasta que se realice una revisión humana del contenido".
Fuentes de YouTube aseguraron a Público que han estado "invirtiendo en nuevos controles para padres, incluida la posibilidad de seleccionar manualmente vídeos y canales
en la aplicación".
"Estamos realizando mejoras constantes en nuestros
sistemas y reconocemos que hay más trabajo por hacer", concluyen. Así,
por ejemplo, la aplicación ofrece a los padres la posibilidad de
habilitar o deshabilitar la caja de búsquedas, de modo que si se
deshabilita el menor tiene acceso sólo a un número limitado de vídeos.
Asimismo, es conveniente recordar que, de acuerdo con sus términos y condiciones, YouTube.com no permite que menores de 13 años tengan cuentas en el servicio.
Además, la compañía revisa periódicamente las cuentas en busca de
posibles infracciones, y en caso de duda se pide una verificación legal
que confirme que tiene más de 13 años.
No hay comentarios:
Publicar un comentario
GRACIAS POR TU OPINION-THANKS FOR YOUR OPINION