YouTube ha eliminado un número sin precedentes de vídeos tras los ataques de Nueva Zelanda
La enorme velocidad a la que se subían los vídeos durante el fin de semana obligó al servicio a tomar medidas urgentes

Plataformas como Twitter, Reddit o Facebook llevan desde el viernes implicadas a fondo en la eliminación de cualquier vídeo de los ataques terroristas de Nueva Zelanda. Entre estas compañías no podía faltar YouTube, el servicio de streaming de vídeo por excelencia, que también se ha visto afectado por la presencia de este indeseable contenido.
La plataforma de Google no ha querido dar cifras exactas sobre la cantidad de vídeos de los atentados que ha eliminado en las últimas horas, aunque sí ha asegurado que ha tenido que hacer un gran esfuerzo para limpiar la plataforma debido a la continua subida de los mismos.
YouTube toma medidas sin precedentes para eliminar el contenido
Neal Mohan, director de Producto de YouTube, ha concedido unas declaraciones a The Washington Post para explicar cómo su compañía ha actuado desde el pasado viernes. Según el directivo, en cuanto vio las primeras imágenes del ataque sabía que YouTube iba a verse implicada, por ello reunió a un grupo de altos ejecutivos expertos en manejar crisis de este tipo.
El equipo tuvo que trabajar sin parar durante toda la noche para identificar decenas de miles de vídeo que se publicaban sin parar en la plataforma, tanto con las imágenes originales como editadas. Tal era la rapidez con la que se aparecía el contenido que Mohan ha afirmado que se subió un vídeo por segundo durante las horas posteriores al ataque.
Como los esfuerzos tradicionales fallaron, YouTube se vio obligada a "tomar medidas sin precedentes" para asegurar que todos los vídeos relacionados con el suceso se eliminaban de la red. Normalmente, los moderadores revisan el contenido que la Inteligencia Artificial ha marcado como problemático, pero eso no era suficiente.
La cantidad ingente de vídeos que llegaban obligó a YouTube a decidir que fuese la IA la que directamente marcase y eliminase aquellos vídeos que consideraba que no respetaban las normas. Fue una decisión complicada porque, al no tener revisión humana, la tecnología también eliminó contenido que no era problemático.
"Hemos progresado, pero eso no significa que no tengamos mucho trabajo por delante, y este incidente ha demostrado que, especialmente en el caso de más videos virales como este, hay más trabajo por hacer", ha afirmado Mohan, reconociendo que YouTube aún tiene que trabajar mucho para tener la respuesta adecuada ante estos sucesos.