Violencia Online

¿Está YouTube a favor del ciberacoso y la pedofilia?

Estrategia digital 4 min. de lectura

La plataforma de videos, propiedad de Google, se ha visto fuertemente cuestionada tras las publicación del diario The New York Times, donde se relaciona el alza en las visualizaciones de los videos caseros a niños pequeños con el algoritmo de recomendación de la plataforma. Esto, se suma a las denuncias por no sancionar contenido homofóbico en la red.

Ojos sobre acoso en línea al rededor de un símbolo del botón play típico de YouTube.

Durante el verano del 2019, diferentes medios dieron aviso del peligro que corrían las niñas y niños en la plataforma de YouTube. Esto, debido principalmente al algoritmo de sugerencias y su relación con redes de pedofila. Ya que en base a este, diferente contenido agregado a la plataforma por los propios niños y sus familias, es marcado. A través de sus comentarios, les ponen marcas de tiempo, para ser visualizados por pedófilos.

Estos depredadores sexuales, se reúnen en los comentarios dentro de los videos de niños y niñas gracias a la facilitación de algoritmo de recomendación de YouTube. El que en base a las búsquedas, los deriva rápidamente hacia videos de menores de edad. Los que en su mayoría son niñas que en apariencia realizan “desafíos” como hacer yoga, comer helado, saltar o jugar.

Esto provoca que videos donde niñas realizan gimnasia, están jugando en alguna piscina, o sencillamente hablan mientras visten ropa ligera -de verano- alcancen millones de visitas y comentarios. Lo que se debe a que los usuarios que participan de redes de pedofilia o explotación de menores registran los minutos en donde las niñas o niños aparecen en situaciones o posiciones aparentemente comprometedoras.

¿Qué hace YouTube?

En la investigación del New York Times, investigadores del Centro Berkman Klein para Internet y Sociedad de la Universidad de Harvard, descubrieron que el algoritmo de YouTube, genera una especie de “Efecto Madriguera” que permite ir “por un tubo” encontrando contenido similar y cada vez más extremo sobre un tema.

Eso se demuestra en el video de Matts Whatltls, quien en febrero, hizo un recorrido a partir de una sola búsqueda sobre trajes de baños, y en un segundo paso, fue dirigido a contenidos caseros infantiles, marcados en sus comentarios por pedófilos.

Al respecto, YouTube dijo que trabajaría en este problema, para aumentar la seguridad infantil en esta red. Sin embargo, el efecto madriguera sigue presente.

Discursos de odio

Este miércoles 5 de junio de 2019, YouTube anunció una modificación en sus políticas. Las que ahora prohibirian el contenido que incite o apruebe la supremacía blanca, puntos de vista neonazis o que nieguen lo sucedido en el holocausto. Esto debido a que según la propia compañía, se ha hecho muy fácil promocionar y encontrar estos contenidos en su red. Por lo que serán eliminados o no permitidos.

YouTube informó que aquellos canales que rocen la línea de los discursos de odio, pero no la cruzan, serán sujetos a sanciones de monetización. Entre ellas la prohibición de mostrar anuncios en su canal o utilizar herramientas como el Superchat.

Homofobia y violencia

Según la información de el Washington Post, el cambio en las políticas entró en vigencia de inmediato. Sin embargo, estos nuevos cambios, se ven envueltos en la discusión sobre ciberacoso levantada por el comentarista de Vox, Carlos Maza, quien ha declarado ser víctima de comentarios abusivos, durante los últimos dos años, por parte del youtuber de extrema derecha, Steven Crowder.

Esta situación, en la que no se sancionó a Crowder por “no infringir las normativas comunitarias de YouTube”, generó un amplio debate en redes sociales. Según las palabras de Maza, “Youtube sabe que lo que está haciendo es una política ‘de mierda’, y eso hará que las personas LGBT sean sujetos de más abusos. A ellos de verdad no les importa, porque el bullying anti-LGBT es bueno para el engagement y Youtube piensa que puede izar la bandera del orgullo mientras empodera a los monstruos que mantienen a la comunidad LGBT asustada de salir del clóset”.

De acuerdo a declaraciones de Youtube, el cambio anunciado también incluye al sistema de recomendaciones tan criticado por la comunidad. “Este cambio se sustenta en una combinación de Machine Learning y personas de verdad”. Lamentablemente este nuevo sistema de evaluación está disponible sólo en Estados Unidos. Se estima que a finales del 2019 podrá expandirse al resto del mundo.

Acerca del Autor

Investigamos las tendencias en proyectos y estrategias digitales para complementarlas con nuestra experiencia en artículos informativos. Nuestro objetivo es aportar al desarrollo del área, discutiendo la efectividad de las tecnologías y técnicas aplicadas.

Agregar un comentario