Meta se enfrenta una vez más a acusaciones de que no está haciendo lo suficiente para evitar la difusión de discursos de odio y contenido violento en los anuncios de Facebook. Un nuevo informe detalla ocho anuncios de este tipo dirigidos a audiencias en Europa que fueron aprobados a pesar de violaciones flagrantes de la política de la empresa sobre discursos de odio y violencia.
El informe proviene de la organización de vigilancia Ekō, que comparte su trabajo para llamar la atención sobre las «prácticas de moderación no estándar» en la red social antes de que la Ley de Servicios Digitales (DSA) entre en vigor en Europa a finales de esta semana. Detalla cómo, en el transcurso de varios días a principios de agosto, la organización intentó comprar 13 anuncios de Facebook, todos los cuales utilizaban imágenes generadas por IA y contenían texto que claramente violaba las políticas de la compañía.
Eco eliminó el anuncio antes de que los usuarios lo vieran. El grupo solicitó que no se revelara la redacción exacta de los anuncios, pero ofreció descripciones de algunos de los ejemplos más atroces. Los anuncios aprobados incluyeron uno en Francia que «pidió la ejecución de un destacado eurodiputado debido a su postura sobre la inmigración» y un anuncio dirigido a usuarios alemanes que «pidió que se quemaran sinagogas para ‘proteger a los blancos'». alemanes». El Meta también aprobó un anuncio en España afirmando que las últimas elecciones fueron robadas y que la gente debe participar en protestas violentas para cancelarlas.
«Este informe se basó en una muestra muy pequeña de anuncios y no representa la cantidad de anuncios que vemos diariamente en todo el mundo», dijo un portavoz de Meta en un comunicado. “Nuestro proceso de revisión de anuncios consta de múltiples niveles de análisis y descubrimiento. , tanto antes como después de que se publique el anuncio. Estamos tomando medidas masivas en respuesta a la DSA y continuamos invirtiendo importantes recursos en proteger las elecciones y contra el discurso de odio, y contra la violencia y la incitación”.
Aunque los controles de Meta han detenido varios anuncios, Eco dice que los anuncios fueron prohibidos porque fueron marcados como políticos, no porque contuvieran retórica violenta y llena de odio. (La empresa exige que los anunciantes políticos pasen por un proceso de selección adicional antes de ser elegibles para anunciar).
Eco está utilizando el informe para defender medidas de seguridad adicionales bajo la DSA, una ley radical que requiere que las plataformas tecnológicas restrinjan ciertos tipos de publicidad dirigida y permitan a los usuarios optar por no participar en algoritmos de recomendación. (Varios servicios, incluidos Facebook, Instagram y TikTok, han realizado cambios recientemente para cumplir con esta última disposición). También requiere que las plataformas identifiquen y mitiguen los “riesgos sistémicos”, incluidos los asociados con contenido ilegal y violento.
«Con unos pocos clics, pudimos demostrar lo fácil que es para los atacantes difundir discursos de odio e información errónea», dijo en un comunicado Vicki Wyatt, directora de campaña de Eco. «Con las elecciones de la UE a la vuelta de la esquina, los líderes europeos deben hacer cumplir la DSA al máximo y finalmente frenar a estas empresas tóxicas».