¿Esta cuenta de Facebook es real? Meta informa un “rápido aumento” en las imágenes de perfil generadas por IA
El padre de Facebook, Meta, está viendo un “aumento explosivo” en las imágenes de perfil falsas generadas por IA.
La tecnología disponible públicamente, como las “redes antagónicas generales” (GAN), permite que cualquier persona, incluidos los actores de amenazas, cree falsificaciones terriblemente profundas mediante la creación de múltiples caras sintéticas en segundos.
“Básicamente son fotografías de personas que no existen”, dijo Ben Nimmo, director de Inteligencia de amenazas globales de Meta. “Esa no es realmente una persona en la imagen. Es una imagen generada por computadora”.
“Más de dos tercios de todos [coordinated inauthentic behavior] Las redes que violamos este año presentaban cuentas con imágenes de perfil que probablemente fueron generadas por GAN, lo que sugiere que los actores de amenazas pueden ver esto como una forma de hacer que sus cuentas falsas parezcan más genuinas y genuinas”, dijo META en un informe público el jueves.
Los investigadores del gigante de las redes sociales están “observando una combinación de señales de comportamiento” para identificar las fotos de perfil generadas por GAN, un avance sobre las búsquedas de imágenes inversas para identificar más que solo fotos de perfil de fotos de archivo.
Meta mostró algo de fraude en su último informe. Las dos imágenes a continuación se encuentran entre las falsas. Como se muestra en la tercera imagen, cuando se superponen, todos los ojos se alinean perfectamente, revelando su artificialidad.
Meta
Meta
Meta/Gráficos
Aquellos capacitados para detectar errores en las imágenes de IA notan rápidamente que no todas las imágenes de IA se ven perfectas: algunas tienen fondos derretidos o aretes que no coinciden.
Meta
“Hay toda una comunidad de investigadores de búsqueda abierta a los que les encanta molestarse en encontrarlos [imperfections,]”Entonces, lo que los actores de amenazas podrían pensar que es una buena forma de ocultarse es en realidad una buena forma de ser descubierto por la comunidad de código abierto”, dijo Nimmo.
Pero la creciente sofisticación de las redes antagónicas generativas, que pronto se basarán en algoritmos para producir contenido indistinguible del producido por humanos, ha creado un complejo juego de “topo” para el equipo de inteligencia de amenazas global de las redes sociales.
Desde que comenzó a informar públicamente en 2017, más de 100 países han sido objeto de lo que Meta llama “comportamiento ilícito coordinado” (CIB). Meta dijo que el término se refiere a “esfuerzos coordinados para manipular el discurso público con un propósito estratégico, donde las cuentas falsas son fundamentales para la operación”.
Desde que Meta comenzó a publicar informes de amenazas hace solo cinco años, la compañía de tecnología ha violado más de 200 redes globales en 68 países y 42 idiomas y dijo que la política fue violada. Según el informe del jueves, “Estados Unidos fue el país más atacado a nivel mundial [coordinated inauthentic behavior] Operaciones que hemos interrumpido a lo largo de los años, seguidas de Ucrania y Gran Bretaña”.
Rusia citó el cargo como la fuente más “prolífica” de comportamiento nefasto coordinado, según un informe del jueves de 34 redes del país. Irán (29 redes) y México (13 redes) también ocupan un lugar destacado entre las fuentes geográficas.
“Desde 2017, hemos interrumpido las redes operadas por el ejército ruso y la inteligencia militar, las empresas de marketing y las personas asociadas con un financiero ruso sancionado”, dice el informe. “Si bien la mayoría de los informes públicos se han centrado en varias operaciones rusas dirigidas a Estados Unidos, nuestra investigación ha demostrado que hay más operaciones que Rusia dirigidas a Ucrania y África”.
“Si observas el alcance de las operaciones rusas, Ucrania siempre ha sido su mayor objetivo”, dijo Nimmo incluso antes de la invasión del Kremlin. Pero Estados Unidos también se encuentra entre los perpetradores de violaciones de la política Meta, que regula las operaciones coordinadas de influencia en línea.
El mes pasado, en un atributo raro, Meta informó de personas “afiliadas al ejército estadounidense”. Concentrándose en audiencias en Afganistán y Asia Central, promovió una red de casi tres docenas de cuentas de Facebook y dos docenas de cuentas de Instagram dirigidas a los intereses estadounidenses en el extranjero.
Nimmo dijo que la remoción del mes pasado se basó en “una serie de indicadores técnicos”, la primera remoción que involucró al ejército estadounidense.
“Esta red en particular operaba en varias plataformas y transmitía información sobre eventos comunes en las regiones a las que hablaba”, dijo Nimmo. “Por ejemplo, representar a Rusia o China en esas áreas”. Nimmo agregó que Meta fue “hasta donde podemos llegar” para identificar la conexión de la operación con el ejército de los EE. UU. sin referirse a una rama de servicio o comando militar específico.
El informe encontró que la mayoría, dos tercios, del comportamiento anómalo coordinado descubierto por Meta “principalmente se dirigía a personas en sus propios países”. A la vanguardia de estos grupos se encuentran las agencias gubernamentales que apuntan a sus poblaciones en línea en Malasia, Nicaragua, Tailandia y Uganda.
El gigante tecnológico dijo que estaba trabajando con otras compañías de redes sociales para exponer la guerra de datos entre plataformas.
“Seguimos exponiendo operaciones que se ejecutan en muchos servicios de Internet diferentes simultáneamente, con las redes más pequeñas siguiendo el mismo enfoque diverso”, dijo en el informe del jueves. “Vimos estas redes trabajando en Twitter, Telegram, TikTok, Blogspot, YouTube, Odnoklassniki, VKontakte, Change.[.]org, Avaaz, otros sitios de petición e incluso LiveJournal”.
Pero los críticos dicen que esas cancelaciones conjuntas son demasiado escasas y demasiado tardías. Sacha Haworth, directora ejecutiva de Tech Oversight Project, calificó el informe como una reprimenda mordaz.[not] vale la pena el papel en el que se imprimen”.
“Para cuando un engaño profundo o la propaganda de actores estatales extranjeros deshonestos llega a personas desprevenidas, ya es demasiado tarde”, dijo Haworth a CBS News. “Meta ha demostrado que no están interesados en cambiar sus algoritmos que promueven este contenido peligroso en primer lugar, y es por eso que los legisladores deben intensificar y aprobar leyes que brinden supervisión a estas plataformas”.
Una investigación de 128 páginas realizada el mes pasado por el Comité de Seguridad Nacional del Senado y obtenida por CBS News alegó que las empresas de redes sociales, incluida Meta, priorizan la participación, el crecimiento y las ganancias de los usuarios sobre la moderación del contenido.
Meta dijo a los investigadores del Congreso: “Fuera[s] “Millones de publicaciones y cuentas ofensivas todos los días”, y su moderación de contenido de IA bloqueó 3 mil millones de cuentas falsas solo en la primera mitad de 2021.
La compañía agregó que desde 2016 hasta octubre de 2021, invirtió más de $13 mil millones en sus equipos de seguridad y protección, con más de 40,000 personas dedicadas a la moderación, o “más del tamaño del FBI”. Pero como señaló el comité, “esta inversión representaba alrededor del 1 por ciento del valor de mercado de la empresa en ese momento”.
Nimmo, blanco directo de la desinformación Cuando 13,000 bots rusos lo declararon muerto en 2017, dice que la comunidad de defensa en línea ha recorrido un largo camino y agrega que ya no siente que está “gritando al desierto”.
“Estas redes están siendo capturadas cada vez más rápido. Es porque tenemos ojos en más y más lugares. Si miras hacia atrás en 2016, realmente no había una comunidad de defensores. Los muchachos que jugaban a la ofensiva eran los únicos en el campo. Ese ya no es el caso”.