Facebook permitirá emitir vídeos en directo de intentos de suicidio o autolesión.
Desde la red social lo defienden porque "no quieren censurar o castigar a personas en peligro que están intentando suicidarse", al menos así lo muestran varios medios de comunicación en documentos filtrados, los cuales han sido redactados con el asesoramiento de especialistas.
«Los usuarios comparten contenido autolesivo como una llamada de auxilio y eliminarlo puede hacer que esa llamada no llegue»
- Fragmento de documentos filtrados de Facebook, mostrados en Eldiario.es
Qué medidas ha tomado Facebook
Mark Zuckerberg (fundador de Facebook) ha anunciado la contratación de 3.000 moderadores que se unirán a los 4.500 actuales, para controlar contenidos publicados en la red social relacionados con el suicidio.
También, los documentos filtrados muestran que Facebook ha contactado con varias agencias para añadir un control que permita detectar antes etiquetas, o signos de que alguien está mostrando interés por ideas suicidas.
¿Por qué ha aumentado la preocupación en este tema?
Desde hace varios meses, la red social ha incrementado su preocupación debido a la exitosa serie de Netflix '13 Reasons Why' ('Por Trece Razones' en España), la cual muestra el suicidio de una adolescente de forma muy explícita.
Expertos muestran miedo al contagio, ya que algunas personas que vean suicidios pueden ser propensos a considerar hacerlo como única alternativa a evitar sus problemas, por este motivo, Facebook ha afirmado que una vez finalizada la retransmisión en directo del vídeo (donde, según ellos, aún es posible ayudar) SÍ se eliminarán dichos vídeos porque ya no habrá lugar de ayudar a la persona a través de la red social.
Lo más sorprendente, es que según los documentos filtrados, los vídeos que ellos consideren de "interés periodístico", en los que pueda haber momentos particulares o eventos públicos que sean parte de una conversación pública podrían justificar NO eliminar el vídeo de la red social.
Opinión personal
Facebook pretende controlar a base de contratar a moderadores la emisión en directo... de las millones de personas que usan la red social. Desde mi punto de vista, como un usuario más de la red social, me parece completamente imposible. Desde que emites en directo, lo que ocurra a tu alrededor, o lo que uno decida hacer, es impredecible y las consecuencias que tenga dependiendo de a cuánta gente llegue el vídeo es igualmente impredecible.
Por otra parte, en el artículo de Eldiario.es (donde está la información ampliada, mi publicación es un pequeño resumen) se puede leer «Cualquier amenaza de
suicidarse en un futuro más alejado de cinco días también puede ser ignorada, apuntan los documentos.»
Está claro que los más afectados en este tema son los menores (niños y adolescentes), quienes han dado éxito a 13 Reasons Why en Netflix, los más propensos a sufrir bullying en clase o ciberbullying en Internet y redes sociales (ya que pasan todo el día en ellas), por lo que, Facebook tendría una opción rápida para evitar que los menores, usen de escaparate mediático la red social para dejar visibles problemas que lleguen al punto de autolesiones o intentos de suicidio.
¿Cuál? Añadir en las emisiones de vídeo en directo una opción con control parental, para que padres y madres puedan desactivar esta opción, sin que su hijo/a pueda volver a activarlo entrando en los ajustes de la aplicación de la red social.
Facebook defiende que vídeos en directo de suicidios pueden ayudar |
| |
Facebook justifica la emisión en directo de intentos de suicidio |