YouTube anunció que usará de nuevo a moderadores humanos para combatir la desinformación. La inteligencia artificial de la plataforma es rápida, aunque poco confiable para moderar.
(hipertextual.com).-YouTube volverá a utilizar moderadores humanos como parte de su estrategia para prevenir la desinformación. Si bien el uso de personas se descartó, la plataforma se volcó a los algoritmos para moderar el contenido en los últimos meses.
En una entrevista con el Financial Times, Neal Mohan, gerente de producto en YouTube, dijo que uno de los efectos negativos de la reducción en moderadores humanos fue el aumento de videos eliminados. Debido a la pandemia de la COVID-19, YouTube se valió de algoritmos para la moderación.El algoritmo borró más de 160 mil videos que no violaban las reglas de uso
El resultado fueron 11,4 millones de videos eliminados durante abril y junio, que representan el doble de lo normal. El problema con los robots es que borraron contenido que no violaba las reglas de la plataforma, por lo que YouTube restauró más de 160.000 videos.
La disminución del número de empleados durante los meses críticos de la pandemia derivó en una oportunidad para que YouTube echara mano de su inteligencia artificial. Pese a que se eliminaron videos con discurso de odio y violencia, Neal Mohan deja entrever que no son tan buenos a la hora de tomar decisiones. Prueba de ello es que las apelaciones para restaurar videos eliminados se duplicó comparado con la media.
La IA de YouTube es rápida, mas no confiable a la hora de moderar
A pesar de eso, no todo es malo con la inteligencia artificial de la plataforma. El directivo de YouTube afirmó que más del 50% de los 11 millones de videos eliminados no tenían una sola vista por los usuarios, lo que confirma su rapidez. Mohan dice que el trabajo de los moderadores humanos es vital, puesto que toman decisiones más matizadas en áreas como el discurso de odio, desinformación médica o acoso.
En un reporte de transparencia publicado a finales de agosto, YouTube detalló cómo se apoyó en sus algoritmos de detección automática de contenido inapropiado. La empresa decidió ser más estricta de lo necesario y el resultado fueron 11,4 millones de videos eliminados, que contrastan con los 9 millones del mismo periodo de tiempo en 2019.
Un ejemplo de la falta de moderación manual se refleja en la cantidad de videos eliminados que no son etiquetados automáticamente como peligrosos. Durante el periodo de abril a junio de 2020, apenas 552.062 videos se eliminaron de la plataforma, menos de la mitad que ocurrió en el segundo trimestre de 2019.
La desinformación es un problema constante con el que tienen que pelear plataformas como YouTube, Twitter o Facebook. Durante años han estado bajo escrutinio por permitir contenido dañino en el que se incluyen teorías conspirativas, discurso de odio, pedofilia y más. En 2020 esto se potenció con la aparición de videos que alegaban curas milagrosas para el coronavirus o teorías de que todo era una conspiración de los gobiernos para tenernos bajo control.