La moderación humana está de vuelta en YouTube. La plataforma dependiente de Google ha tomado la decisión tras constatar que la moderación automática estaba provocando problemas: se borraban vídeos que no debían ser borrador. Además de eliminarse contenido que no había infringido ninguna regla, la reducción de supervisión humana respecto a los vídeos potencialmente dañinos provocó que los borrados se incrementaran en términos generales, según explica Neal Mohan, jefe de producto de YouTube al Financial Times.
Hasta el doble de lo habitual, eliminándose entre abril y junio cerca de 11 millones. «Incluso 11m es una muy, muy pequeña, diminuta fracción del total de videos en YouTube… pero fue un número mayor que en el pasado», declaraba al rotativo.
En YouTube eran conscientes de esta circunstancia desde el inicio, pero tomaron la decisión debido a los confinamientos necesarios para atajar la pandemia por coronavirus. «Se eliminarán más videos de lo normal durante este tiempo, incluyendo el contenido que no viola nuestras directrices de la comunidad», alertaron, incluso añadiendo una disculpa.
Mohan argumenta que estos sistemas funcionan bien siendo capaces de eliminar rápidamente contenido perjudicial, pero sus capacidades tienen un límite. En ocasiones, como se ha comprobado a lo largo de los últimos meses una vez más, pueden ser más celosos de la cuenta. Y ahí es donde entran en juego los moderadores humanos, según el directivo de YouTube, a la hora de tomar decisiones una vez detectado un potencial peligro.