Contenidos

¿Cómo moderar los contenidos que incitan al odio en RRSS?

Seguridad 4 min. de lectura

El más reciente caso del youtuber Logan Paul reavivó la discusión sobre la moderación de este tipo de contenidos. ¿Es suficiente lo que hacen compañías como Twitter, Facebook, Youtube o Google? ¿cómo pueden actuar las autoridades? ¿cómo se verán afectados los usuarios? Estas son algunas de las interrogantes que nos planteamos.

Logan Paul es un famoso youtuber con más de 15 millones de suscriptores en su canal. Desde que se hizo conocido, sus contenidos no han estado fuera de la polémica. Hace algunas semanas publicó un video donde se le ve en el bosque de Aokigahara, ubicado a los pies del monte Fuji, al oeste de Tokio, Japón. El lugar es conocido por el gran número de suicidios que ocurren ahí y, precisamente en una de las imágenes de la grabación de Paul, se ve el cuerpo de una supuesta persona muerta colgada de un árbol.

Como resultado de esta perturbadora grabación, la plataforma de videos determinó eliminar sus canales de Google Preferred de YouTube, el mayor programa de anuncios publicitarios, algo que podría afectar notoriamente sus ganancias.

Sin embargo, las imágenes fueron vistas por más de 6 millones de personas en 48 horas. Solo después de ese tiempo, Paul decidió borrar el video. Además, muchos cuestionaron a la plataforma porque no aplicó ningún criterio de censura por contenido violento y dejó toda la responsabilidad al autor.

Esta no es la primera vez que Paul comparte este tipo contenidos. Como detalla FayerWayer, el estadounidense ya fingió su muerte en vivo, hirió a un perro y secuestró a su cuñada. Todos estos videos, algunos con contenido muy violento, aún están disponibles en su canal.

Los dolores de cabeza de YouTube

A fines de año pasado, YouTube ya se había visto involucrado en otro problema por los contenidos difundidos, esta vez, en YouTube Kids. Como ya te contamos en un artículo anterior, habían proliferado los videos con contenidos inadecuados para niños.

Ante esto, su directora ejecutiva, Susan Wojcicki, realizó una declaración a través del blog corporativo. Allí, anunció que durante 2018 perseguirán el objetivo de lograr que más de 10.000 moderadores humanos revisen las plataformas de Google, entre ellas YouTube.

El caso de Facebook

Esta aparente liviandad con que se analizan los contenidos que se suben a redes sociales quedó en manifiesto. El diario “The Guardian” tuvo acceso a los manuales con los que se instruyen a los moderadores de Facebook. Ellos tenían indicaciones para dejar pasar mensajes con muertes violentas, autolesiones, escenas de abortos y maltrato no sexual a menores.

Luego Propublica, una agencia de noticias independiente estadounidense, reportó en esta red social 49 publicaciones que incitaban al odio. Los moderadores erraron en 22 ocasiones en su determinación. Facebook reconoció los errores en su política de moderación y anunció que incrementará el personal de su equipo de seguridad.

¿Hacia una regulación del contenido?

En esta discusión hay dos ámbitos opuestos al analizar estos casos. Por un lado, hay que determinar si se trata de inacción y luego, establecer si se han vuelto inabarcables los volúmenes de información y contenidos a moderar.

Durante la primera semana de enero, en la clausura del EU Internet Forum, que reúne a miembros de la Comisión Europea, las autoridades de la UE se manifestaron sobre la eliminación de contenido violento y extremista. Su motivación principal fue que en ese continente el terrorismo se ha vuelto un tema sensible en el último tiempo.

Según información a la que tuvo acceso la agencia Reuters, uno de los planteamientos de un informe de los miembros del EU Internet Forum busca establecer plazos y responsabilidades.

“Identificar y eliminar contenidos terroristas en un plazo de 1 a 2 horas después de la carga, en la medida en que sea técnicamente viable, sin comprometer los derechos humanos y las libertades fundamentales”.

Con esto, reflota otra discusión: ¿cuál es el límite entre la censura versus la libre difusión de contenidos? Comenzar a prohibir contenido va en contra de uno de los principios fundacionales de Internet. Sin embargo, también se requiere de la responsabilidad de quienes usamos este espacio al momento de publicar contenidos.

Sin duda, todos los cambios nos afectarán directamente, esperemos que de la manera más positiva posible.

Acerca del Autor

Investigamos las tendencias en proyectos y estrategias digitales para complementarlas con nuestra experiencia en artículos informativos. Nuestro objetivo es aportar al desarrollo del área, discutiendo la efectividad de las tecnologías y técnicas aplicadas.

Agregar un comentario