Aplicación responsable de políticas durante la pandemia de COVID‑19 - GeekZus

Aplicación responsable de políticas durante la pandemia de COVID‑19


Hace algunos meses compartimos algunas de las medidas que tomamos para proteger a nuestros empleados y al personal externo durante la pandemia de COVID‑19. Un cambio importante fue usar más la tecnología para identificar y quitar con rapidez el contenido que infringiera nuestros Lineamientos de la Comunidad con el fin de que el equipo de revisores se quedara a salvo en casa. El segundo trimestre de 2020 fue el primer trimestre completo en el que trabajamos con esta estructura modificada de aplicación. Debido a las decisiones que tomamos para priorizar la seguridad de la comunidad, fue el período en el que se quitaron más videos de YouTube. Hoy publicaremos todos los datos del segundo trimestre en nuestro informe trimestral de aplicación de los Lineamientos de la Comunidad.

Priorizamos la seguridad de la comunidad de YouTube

Por lo general, recurrimos a una combinación de revisores humanos y tecnología para aplicar nuestras políticas. El aprendizaje automático permite detectar contenido potencialmente dañino y lo envía a los revisores manuales para que lo evalúen. Las revisiones manuales no solo son necesarias para entrenar nuestros sistemas de aprendizaje automático, sino que también sirven como una verificación que entrega comentarios para mejorar la precisión de nuestros sistemas con el tiempo. Cada trimestre nuestro equipo de revisión manual evalúa millones de videos que primero marcaron nuestros sistemas automáticos y determina si el contenido cumple con nuestras políticas.

Dado que contamos con una capacidad muy reducida de revisores manuales debido a la pandemia de COVID‑19, tuvimos que decidir entre una posible aplicación insuficiente o excesiva de nuestras políticas. La primera opción involucraba adaptar nuestra tecnología y limitar la aplicación de las políticas solo al contenido que pudiera abarcar nuestro equipo reducido de revisores. De esta forma, se mantendría un nivel de precisión alto, pero se quitaría mucho menos contenido de YouTube, incluidos ciertos videos que infringieran nuestras políticas. La segunda opción era hacer que nuestros sistemas automáticos abarcaran mucho más contenido a fin de quitar con rapidez de YouTube la mayoría de los videos que pudieran dañar a la comunidad. Sabíamos que no se revisarían manualmente muchos videos y que se quitarían algunos que sí cumplían con nuestras políticas.

La responsabilidad es nuestra prioridad principal y, por ello, elegimos la segunda opción: usar la tecnología para realizar el trabajo que normalmente harían los revisores. El resultado fue un aumento en la cantidad de videos que se quitaron de YouTube, más del doble de los que se quitaron el trimestre anterior. En algunas áreas de políticas sensibles, como el extremismo violento o la seguridad infantil, aceptamos un nivel de precisión más bajo a fin de asegurarnos de quitar la mayor cantidad posible de videos con contenido infractor. Esto también significa que, en esas áreas, se quitó una mayor cantidad de contenido que cumple con nuestras políticas. La decisión de realizar una aplicación excesiva en estas áreas de políticas para estar completamente seguros generó el triple de eliminaciones de videos que nuestros sistemas sospecharon que estaban relacionados con extremismo violento o que podrían ser perjudiciales para los niños. Se incluyeron retos, desafíos o cualquier otra publicación bienintencionada que pudiera poner en riesgo a los menores.

Disminución de las interrupciones para los creadores

Dado que comenzamos a usar más la automatización, también tomamos medidas para disminuir las interrupciones que experimenten nuestros creadores. Como lo mencionamos anteriormente, decidimos no aplicar faltas por el contenido que se quite sin una revisión manual, excepto en los casos en que estemos totalmente seguros de que se incumplieron nuestras políticas.

Además, siempre les hemos proporcionado a los creadores una manera sencilla de apelar si creen que se quitaron sus videos por error. Sabemos que, en algunos casos, las decisiones que toman nuestros sistemas son menos precisas que las revisiones manuales. Es por eso que nos preparamos para recibir más apelaciones y dedicamos recursos adicionales a fin de asegurarnos de que se revisen con rapidez. Aunque la cantidad de apelaciones sigue siendo una pequeña fracción del total de eliminaciones de videos (menos del 3%), notamos que se duplicó la tasa de apelaciones y restablecimientos en comparación con el trimestre anterior. Específicamente, la cantidad de videos que se apelaron y restablecieron aumentó de un 25% a un 50% en el segundo trimestre.

El COVID‑19 tuvo un impacto en todo el mundo y en cada área de nuestra empresa. En estos momentos complejos, queremos reafirmar nuestro compromiso con la responsabilidad. Para asegurarnos de cumplirlo, tomamos medidas extraordinarias: quitamos con rapidez el contenido que infringe nuestras políticas a fin de proteger a los usuarios y disminuimos las interrupciones para los creadores. Mejoramos constantemente la precisión de nuestros sistemas y, a medida que los revisores puedan volver a trabajar, les pediremos que se dediquen a las áreas con el mayor impacto. Seguiremos informando nuestro progreso a la comunidad con frecuencia.