El sistema de moderación de Facebook favorece a los ‘socios comerciales’, dice la junta de supervisión | Meta
A Facebook Si bien la política diseñada para proteger a los usuarios de alto perfil de la moderación fue diseñada para servir a los intereses comerciales de la empresa, el “tribunal supremo” de Meta no priorizó la protección de la libertad de expresión y los derechos civiles en la plataforma.
La Junta de Control, que verifica las decisiones de moderación en Facebook y Instagramdijo que el sistema de “verificación cruzada” de las plataformas favorece a los “socios comerciales”, incluidos artistas, músicos y editores de noticias, mientras que los periodistas y las organizaciones de la sociedad civil tienen “caminos menos claros” para acceder al programa.
“No todavía Meta Si bien el contrainterrogatorio tiene como objetivo promover los compromisos de derechos humanos de Meta, descubrimos que el programa parece estar estructurado de manera más directa para satisfacer las preocupaciones comerciales”, dijo a la junta, y agregó que le preocupaba la “falta de transparencia” en torno al programa.
Dijo que la verificación cruzada brinda más protección a algunos usuarios que a otros, ya que los usuarios en la lista de verificación cruzada pueden permanecer mientras moderadores humanos revisan su contenido y hacen cumplir una “gama completa” de políticas de contenido. Meta lo describió como una “estrategia de prevención de errores” que protege a los usuarios importantes de eliminar contenido erróneo.
Los usuarios habituales, por otro lado, tienen menos probabilidades de que su contenido llegue a los revisores que pueden aplicar la gama completa de pautas de contenido Meta.
La Junta dijo que la “popularidad o el número de seguidores” de un usuario no debería ser el único criterio para aprovechar la protección especial que ofrece la aplicación. Meta admitió ante la junta que los criterios para incluir a los “socios comerciales” incluían la cantidad de ingresos que generaban.
Meta también le dijo a la junta que eximió parte del contenido de la eliminación. La compañía describió el sistema como “arreglos técnicos” y dijo que se realizaba unas mil veces al día. La Junta recomendó que Meta realice una auditoría de las acciones de cumplimiento bloqueadas en el sistema.
La junta agregó que el sistema de arreglos técnicos se trata como una “lista permitida” o “lista blanca”. En septiembre del año pasado, el Wall Street Journal escribió que el futbolista brasileño Neymar respondió a las acusaciones de violación en 2019, utilizando documentos publicados por la denunciante Frances Haugen. Facebook y videos de Instagram defendiéndose, incluso mostrando a los espectadores la correspondencia de WhatsApp con su acusador. Los clips de WhatsApp, propiedad de Meta, contienen el nombre del acusador y fotos de él desnudo.
Según el WSJ, los moderadores fueron bloqueados durante más de un día antes de eliminar el video, mientras que no se aplicó la sanción normal por eliminar sus cuentas. Un documento interno al que tuvo acceso el WSJ decía que las cuentas de Neymar permanecieron activas después de que “tomó la iniciativa”. Neymar ha negado la acusación de violación y no se han presentado cargos contra el jugador.
Citando el ejemplo de Neymar, la junta dijo que parte del contenido aún permanece en línea durante “períodos significativos” a pesar de que Meta dice que tiene un sistema para priorizar las decisiones de contenido.
“En el caso de Neymar, es difícil ver cómo las imágenes íntimas no oficiales publicadas en una cuenta con más de 100 millones de seguidores no habrían saltado al frente de la fila para una visualización rápida y de alto nivel si hubiera existido algún sistema de priorización”. ”, dijo la junta.
La junta dijo además que la categoría de “socio comercial” de validación cruzada incluye usuarios que pueden ganar dinero para la empresa, ya sea a través de una “relación comercial formal” o reclutando usuarios para las plataformas de Meta. Dijo que prefería retener el contenido para retirarlo por la “percepción de censura”.
El consejo hizo 32 recomendaciones. Estos incluyen: eliminar protecciones especiales para cuentas comercialmente significativas si violan con frecuencia las políticas de contenido; priorizar la moderación de publicaciones importantes para los derechos humanos; y el contenido de los usuarios de validación cruzada de “gravedad alta” que infringe el contenido debe eliminarse u ocultarse mientras se lleva a cabo.
La junta dijo que Meta consideró que el riesgo de que una decisión de contenido resulte en una “escalada en los niveles más altos” para el director ejecutivo o el director de operaciones de una organización es muy sensible. Dicho contenido está etiquetado como “extremadamente grave” en el sistema de verificación cruzada. Por lo tanto, Meta se enfoca más en los resultados comerciales que en las decisiones de derechos humanos, dijo.
Nick Clegg, presidente de asuntos globales de Meta, dijo que la compañía respondería dentro de los 90 días para “abordar completamente” las recomendaciones de la junta.
Today the @OversightBoard published its Policy Advisory Opinion on Meta's cross-check system. We requested their review so that we can continue our work to improve the program. To fully address their recommendations, we’ve agreed to respond within 90 days. https://t.co/2LMSQ65kcW
— Nick Clegg (@nickclegg) December 6, 2022
\n”,”url”:”https://twitter.com/nickclegg/status/1600084532790956033″,”id”:”1600084532790956033″,”hasMedia”:false,”role”:”inline”,”isThirdPartyTracking”:false,”source”:”Twitter”,”elementId”:”1727a3a1-351f-4e01-a40b-277fd92c5e7c”}}”>
Este Dia @JuntaDeSupervisión Publicó una Opinión Consultiva de Política sobre el sistema de validación cruzada de Meta. Pedimos su revisión para continuar con nuestro trabajo de mejora de la aplicación. Acordamos responder dentro de los 90 días para responder completamente a sus recomendaciones. https://t.co/2LMSQ65kcW
—Nick Clegg (@nickclegg) 6 de diciembre de 2022