Redes Sociales

Twitter y su problema con la moderación

Experiencia de Usuario 3 min. de lectura

Quienes utilizan esta red social saben que en Twitter hay espacio para todos. El problema es cuando los usuarios sacan provecho de la plataforma para difundir contenidos que no sólo infringen sus políticas comunitarias, sino que también implicarían un delito.

Twitter y su problema con la moderación

En Twitter podemos encontrar prácticamente de todo, cuentas noticiosas, de humor, autoayuda o incluso de noticias falsas y contenido para mayores de edad. Esto nos haría pensar que existe un equipo robusto de moderación, capaz de eliminar cualquier cuenta o contenido que vaya en contra de las normas.

Las cuentas que difunden imágenes o contenidos de carácter sexual, llamaron la atención de los ejecutivos de la plataforma. Podía significar una oportunidad de negocio para competir con espacios como OnlyFans.

En la fase de investigación de este posible producto, bautizado como el Adult Content Monetization project, los equipos de Twitter descubrieron algo catastrófico. La red social aún no es capaz de detectar contenidos que pueden ser potencialmente dañinos para la comunidad. Dentro de esta categoría entran aquellas cuentas o perfiles de usuarios que difunden contenidos relacionados a explotación sexual infantil o imágenes sin consentimiento.

Un problema por donde se le mire

Pero eso no es todo, Twitter tampoco tiene la capacidad, aún, verificar la edad de sus usuarios; por lo que el proyecto ACM quedaría bastante abierto a toda la comunidad.

El equipo encargado de los estudios previos detectó que la implementación de un modelo de paywall para aquellas cuentas que deseen monetizar su contenido, también puede abrir la puerta para aquellos perfiles que difunden contenido relacionado con explotación sexual infantil.

Cuando falla la inversión, falla la moderación

Este problema en la detección de cuentas y contenidos potencialmente peligrosos pasa por varios factores, pero el principal está relacionado con la inversión.

De acuerdo a reportes, la moderación de contenidos, o detectar y eliminar cuentas o contenido sensible, como la explotación sexual infantil, aún se realiza de manera manual. Es decir, existe un equipo de personas encargadas de realizar estas tareas.

Y si bien, no se puede descansar por completo en el uso de tecnologías basadas en inteligencia artificial, tal como ocurrió con Google, la empresa tampoco ha invertido lo suficiente como para hacer crecer el área ni para desarrollar políticas adecuadas a esta realidad.

Cómo denunciar la ESI en Twitter

Si bien la red social ha ido mejorando su protocolo de denuncia de contenidos, ampliando las razones y temáticas para denunciar, en el caso de la explotación sexual infantil la plataforma ofrece un formulario especial para hacer las denuncias.

En el formulario es obligatorio entregar la mayor cantidad de detalles, y de ser posible, con enlaces y nombres de usuario.

Y como esto se trata de denunciar delitos, también se pide que los usuarios hagan una declaración de que toda la información entregada es correcta y verdadera

Acerca del Autor

Investigamos las tendencias en proyectos y estrategias digitales para complementarlas con nuestra experiencia en artículos informativos. Nuestro objetivo es aportar al desarrollo del área, discutiendo la efectividad de las tecnologías y técnicas aplicadas.

Agregar un comentario