Facebook creará un tribunal independiente para moderar el contenido
El objetivo de este grupo independiente será encontrar el balance entre la libertad de expresión y la seguridad de los usuarios.

La desinformación y sus consecuencias para los usuarios centran ahora la mayoría de noticias relacionadas con Facebook. La compañía no deja de trabajar para encontrar las soluciones necesarias para acabar con unas "fake news" que han llegado incluso a los Parlamentos de Reino Unido y Canadá.
El peligro del contenido malicioso en la red social es tal que Facebook ha decidido crear un tribunal de moderación totalmente independiente que se encargue de eliminar cualquier tipo de información que vaya contra la seguridad de sus usuarios.
La "Corte Suprema" de Facebook
El trabajo realizado por la compañía fundada por Mark Zuckerberg en los últimos años no ha sido el adecuado. La propia Facebook ha reconocido que no hizo todo lo posible por frenar la violencia en Myanmar, esa impulsada en gran parte por las noticias falsas que se difundían en la red social.
La idea de Facebook es que este grupo independiente comience a trabajar en 2019
Consciente de sus errores del pasado, Facebook quiere cambiar mediante nuevas herramientas que den prioridad a la seguridad de las personas. Así lo leemos en el comunicado de Zuckerberg publicado en la plataforma, en el que hace recuento de lo que ha sucedido este año y habla sobre los problemas que afronta la compañía.
La medida más importante que la compañía tomará, confirmada por el propio CEO, será la creación de un cuerpo de trabajo independiente para moderar el contenido publicado en la red social. Cabe destacar la importancia de la independencia del grupo, que debería asegurar la objetividad a la hora de revisar y retirar la información indebida, como bien ha explicado Zuckerberg:
Primero, evitará la concentración de demasiada toma de decisiones en nuestros equipos. En segundo lugar, creará responsabilidad y supervisión. Tercero, brindará seguridad de que estas decisiones se toman en el mejor interés de nuestra comunidad y no por razones comerciales.
Pese al incremento de los esfuerzos para acabar con los mensajes de odio, Facebook considera que es necesaria la aparición de un tribunal sin influencias que analice las publicaciones y decida si deben permanecer en la red o no.
Un tribunal que decida en los casos más polémicos
Actualmente, Facebook cuenta con miles de moderadores de contenido que tienen que analizar al día cientos de publicaciones ofensivas. La dureza del contenido es tal que algunos de los trabajadores han llegado a denunciar a la compañía por causarles estrés postraumático.
Aunque existe la figura del moderador de contenido, estos no pueden decidir en algunos casos polémicos y necesitan la ayuda de otros equipos. Al respecto, Mark Zuckerberg ha llegado a la conclusión de que estos últimos no deberían "tomar tantas decisiones sobre la libertad de expresión o la seguridad".
Por el momento, este proyecto está en construcción y no se pondrá en marcha hasta finales del próximo año. Según ha comentado el fundador en una llamada con periodistas, el objetivo principal es que este tribunal encuentre el balance perfecto entre la libertad de expresión de los usuarios y la seguridad de los mismos.
La idea es que los participantes del grupo de moderación tomen partida en las decisiones más importantes. "El enfoque básico es que si no estás satisfecho después de tu apelación (a los moderadores), entonces puedas apelar ante esta junta o cuerpo superior", ha detallado el líder de Facebook.
Aunque Zuckerberg haya decidido compartir ya con el mundo la futura existencia de este tribunal independiente, Facebook aún está pensando en cómo llevar a cabo el proceso de elección de dichos miembros, cuál será exactamente su papel y otros detalles del equipo a formar.
Facebook quiere ganarle la batalla al contenido ofensivo
La mayoría de medidas empleadas por Facebook durante el último año tenían como objetivo reducir la presencia de contenido ofensivo. Podríamos decir que lo ha conseguido al eliminar más de mil millones de publicaciones, imágenes, vídeos y otros archivos de spam solo entre julio y septiembre de este año, según informa The Verge.
Millones de publicaciones de mensajes de odio, de bullying, de contenido violento, de propaganda terrorista o violencia gráfica ha sido eliminado de Facebook en solo unos meses. La compañía ha publicado todos los datos en un ejercicio más de transparencia que se repetirá en el futuro.
Facebook quiere ganarse la confianza de sus usuarios apostando por la transparencia
Facebook se ha comprometido a publicar un informe cada tres meses para mostrar los datos de contenido eliminado de su plataforma. Esa transparencia dominará también el tribunal independiente de moderación, que comunicará públicamente todas las decisiones que tome.
Ya sabemos que la independencia del grupo será requisito indispensable, pero Facebook también quiere que apoye los principios de la compañía, unas normas en las que se apoya para dar una imagen conjunta de lucha contra el contenido ofensivo y la desinformación.