Meta afirmación: profesor etíope asesinado por la mafia. Hijo afirma que Facebook alimentó la violencia
CNN
—
El hijo de un profesor de química etíope que fue asesinado durante los disturbios del país el año pasado presentó una demanda contra la empresa matriz de Facebook, Meta, alegando que la plataforma de redes sociales incita al odio viral y la violencia y daña a las personas en el este y el sur de África.
Abraham Meareg Amare afirma en su demanda que su padre, el académico de Tigrayan Meareg Amare, de 60 años, recibió un disparo en noviembre de 2021 frente a su casa en Bahir Dar, la capital de la región de Amhara en Etiopía, después de una serie de ataques de odio. Se publicaron mensajes en Facebook difamando al profesor y pidiendo que lo mataran.
El caso es una petición constitucional presentada ante el Tribunal Superior de Kenia, que tiene jurisdicción sobre el asunto, ya que el centro de operaciones de moderación de contenido de Facebook para gran parte de África oriental y meridional tiene su sede en Nairobi.
Él culpa al algoritmo de Facebook por favorecer el contenido peligroso, odioso e incendiario para obtener participación e ingresos publicitarios en Kenia.
“Incluso después de informar al demandado, fueron objeto de violaciones de derechos humanos como resultado de que Facebook no eliminó las publicaciones que violaban la ley de derechos”, afirma la denuncia.
Los documentos legales alegan que Facebook no ha invertido adecuadamente en moderar contenido en países de África, América Latina y Medio Oriente, particularmente desde su centro en Nairobi.
También afirma que el fracaso de Meta para hacer frente a estos problemas clave de seguridad ha alimentado la guerra civil de Etiopía.
En un comunicado a CNN, Meta no respondió directamente al reclamo:
“Tenemos reglas estrictas sobre lo que está permitido y lo que no está permitido en Facebook e Instagram. El discurso de odio y la incitación a la violencia están en contra de estas reglas, e invertimos mucho en equipos y tecnología para ayudarnos a encontrar y eliminar este contenido. Nuestro trabajo de seguridad e integridad en Etiopía se basa en los comentarios de las organizaciones locales de la sociedad civil y las instituciones internacionales.
Meareg dijo que su padre había sido perseguido hasta su casa desde la Universidad de Bahir Dar, donde había trabajado durante cuatro años en uno de los laboratorios más grandes del país, y un grupo de hombres le disparó dos veces a quemarropa.
Dijo que la gente coreaba consignas de “junta” sobre su padre, repitiendo una afirmación falsa en Facebook de que era miembro del Frente Popular de Liberación de Tigray (TPLF), que ha estado en guerra con el gobierno federal de Etiopía durante dos años. años.
Meareq dijo que se esforzó por eliminar algunas de las publicaciones de Facebook con la foto y la dirección de la casa de su padre, pero dice que no ha recibido respuesta desde que lo mataron.
Una investigación sobre el crimen realizada por la Comisión de Derechos Humanos de Etiopía, incluida en la petición y vista por CNN, encontró que Meareg Amare fue asesinado en su residencia por asaltantes armados, pero se desconoce su identidad.
“Si Facebook hubiera detenido adecuadamente la propagación del odio y las publicaciones moderadas, mi padre aún estaría vivo”, dijo Meareg, y agregó que una de las publicaciones que pedían la muerte de su padre todavía estaba en la plataforma.
“Estoy demandando a Facebook para que nadie sufra como mi familia. “Quiero justicia para los millones de africanos que han sufrido por la especulación de Facebook y me disculpo por el asesinato de mi padre”.
Meareg, Amnistía Internacional, Fisseha Tekle y un grupo de derechos humanos de Kenia están iniciando una demanda contra un asesor legal y ex investigador de Etiopía en el Instituto Katiba.
Los demandantes le piden al tribunal que ordene a Meta que elimine el contenido violento, aumente su personal de moderadores de contenido en Nairobi y establezca un fondo de restitución de casi $ 1.6 mil millones para las víctimas de Facebook que incitan al odio y la violencia.
Etiopía es una nación étnica y religiosamente diversa de aproximadamente 110 millones de personas que hablan muchos idiomas. Sus dos grupos étnicos más grandes, Oromo y Amhara, representan más del 60% de la población. Los tigrayanos, el tercero más grande, representan alrededor del 7%.
Un portavoz de Meta dijo que las políticas y el trabajo de seguridad de la empresa en Etiopía se basan en los comentarios de las organizaciones locales de la sociedad civil y las instituciones internacionales.
“Empleamos personal con conocimiento y experiencia local y continuamos desarrollando nuestras capacidades para capturar contenido ofensivo en los idiomas más hablados en el país, incluidos amárico, oromo, somalí y tigrinya”, dijo el vocero.
Según la presentación de Meareg, Meta tiene 25 empleados que manejan los principales idiomas solo en Etiopía. CNN no pudo confirmar de forma independiente la cifra, y Facebook no dijo exactamente cuántos hablantes de idiomas locales en Etiopía calificaron el contenido que, según dijo, violó sus estándares.
La demanda se produce después de dos años de conflicto violento en Etiopía que ha dejado miles de muertos y desplazado a muchos más. 2 millones de personas causó una ola atrocidades, incluyendo masacres, violencia sexual y el uso del hambre como arma de guerra. A informe de la ONU el año pasado descubrió que todas las partes en el conflicto “han cometido violaciones del derecho internacional de los derechos humanos, humanitario y de refugiados, algunas de las cuales pueden constituir crímenes de guerra y crímenes de lesa humanidad” en diversos grados.
Gobierno etíope y liderazgo del TPLF accedió a detener las hostilidades En noviembre, prometió desarmar a los combatientes, proporcionar acceso humanitario sin trabas a Tigray y un marco para la justicia. Sin embargo tregua sorpresa dejó muchas preguntas sin respuesta con pocos detalles sobre cómo se implementaría y monitorearía.
No es la primera vez que Meta es objeto de escrutinio por la gestión de la seguridad de los usuarios en sus plataformas, particularmente en países donde el discurso de odio en línea puede propagarse y causar daño fuera de línea. El año pasado, informante Francis HaugenUn ex empleado de Facebook le dijo al Senado de los EE. UU. que el algoritmo de la plataforma está “alimentando literalmente la violencia étnica” en Etiopía.
Los documentos internos presentados al Congreso en forma redactada por el asesor legal de Haugen y vistos por CNN revelaron que los empleados de Facebook dieron la alarma repetidamente sobre la falta de prevención de la difusión de publicaciones que promueven la violencia en países “en riesgo” como Etiopía. Los documentos también mostraron que los esfuerzos de moderación de la compañía no se han mantenido al día con la avalancha de contenido ofensivo en su plataforma y, en muchos casos, no ha podido ampliar adecuadamente el personal o agregar recursos en el idioma local para proteger a las personas en esos lugares.
El año pasado, Consejo de supervisión independiente de Meta recomendó a la empresa realizar una evaluación de derechos humanos sobre cómo se utilizan Facebook e Instagram para difundir discursos de odio e información errónea que aumentan el riesgo de violencia en Etiopía.
Rosa Curling, directora de Foxglove, una organización legal sin fines de lucro registrada en el Reino Unido, comparó el papel de Facebook en alimentar el conflicto etíope con el papel de la radio en alimentar el genocidio de Ruanda.
“Las consecuencias de los datos en Facebook son tan trágicas y terribles”, dijo Curling. “(Facebook) ellos mismos no están tomando ninguna acción. Son conscientes del problema. Eligen anteponer sus propios intereses a las vidas de los etíopes, y esperamos que este caso evite que eso continúe”.
Facebook también ha sido acusado de permitir publicaciones que inciten a la violencia en Myanmar, donde la ONU dice que el gigante de las redes sociales promueve la violencia y el odio contra la población minoritaria rohingya, entre otros conflictos. Un tribunal que quiere rendir cuentas por el papel del Meta Birmania El año pasado, un grupo de refugiados rohingya presentó una demanda en California por la crisis en busca de una compensación de 150 000 millones de dólares.
La compañía de redes sociales admitió que no hizo lo suficiente para evitar que su plataforma se usara para promover el derramamiento de sangre, y el director ejecutivo Mark Zuckerberg escribió una carta abierta disculpándose con los activistas y prometiendo aumentar los esfuerzos de moderación.