Rara vez, o nunca, las amenazas en línea actuales se dirigen a una única plataforma tecnológica; en cambio, se dirigen a personas de todo Internet. Trabajamos duro para mantener nuestras aplicaciones seguras para las personas y ayudar a mejorar nuestra protección colectiva en línea. de hoy actualizaciones de seguridad e integridad Proporcionar información sobre nuestra estrategia de defensa y actualizaciones sobre cómo la estamos integrando en productos como nuestras nuevas aplicaciones Threads y sistemas de IA generativa.
En la década que ha transcurrido desde que primero Cuando comenzaron a publicarse informes de transparencia, las empresas de tecnología y los investigadores aprendieron mucho sobre cómo los atacantes pueden abusar de los espacios públicos en línea. Una lección clave para nosotros ha sido que la transparencia en toda nuestra industria está teniendo un impacto positivo en cascada en nuestra capacidad colectiva para responder a nuevas amenazas, desde la presión continua sobre grupos maliciosos a través de eliminaciones y la exposición pública de sanciones gubernamentales, hasta una mayor protección de los productos. Las actualizaciones de hoy son una buena idea de cómo funciona esto en la práctica.
Terminación de las dos mayores operaciones clandestinas de influencia conocidas
Porcelana: Recientemente eliminamos miles de cuentas y páginas que formaban parte de la operación de influencia encubierta multiplataforma más grande del mundo. Atacó más de 50 aplicaciones, incluidas Facebook, Instagram, X (anteriormente Twitter), YouTube, TikTok, Reddit, Pinterest, Medium, Blogspot, LiveJournal, VKontakte, Vimeo y docenas de plataformas y foros más pequeños. Por primera vez, pudimos vincular estas actividades para confirmar que eran parte de una única operación conocida en la comunidad de seguridad como «Spam» y vincularlas con personas asociadas con las fuerzas del orden chinas. Consulte nuestro Informe de amenazas adversas del segundo trimestre para obtener más detalles.
Rusia: También hemos bloqueado miles de dominios de sitios web maliciosos, así como intentos de ejecutar cuentas y páginas falsas en nuestras plataformas relacionadas con la operación rusa conocida como «Doppelganger», que primero violado Hace un año. Esta operación tenía como objetivo falsificar los sitios web de los principales medios de comunicación y agencias gubernamentales para publicar artículos falsos destinados a debilitar el apoyo a Ucrania. Ahora se ha expandido más allá de su enfoque original en Francia, Alemania y Ucrania para incluir a Estados Unidos e Israel. Se trata de la mayor y más agresiva operación de origen ruso que hemos detenido desde 2017. Además de la investigación de nuevas amenazas, también publicamos nuestras recomendaciones de políticas y aplicación del sistema de registro de nombres de dominio global. .
Explorando el impacto de romper las redes de odio
Comenzamos a utilizar lo que llamamos violaciones de redes estratégicas en 2017 para combatir las operaciones de influencia encubiertas de Rusia. Dado que ha demostrado ser una herramienta eficaz en nuestra caja de herramientas, la hemos extendido a otras áreas problemáticas, incluidas las redes de odio, el ciberespionaje y los informes de base. Pero como sabemos que los grupos maliciosos continúan perfeccionando sus tácticas en Internet, también nos seguimos preguntando: ¿funcionan estas estrategias y cómo podemos mejorarlas?
Nuestro equipo de investigación publicó recientemente estudiar a raíz de seis interrupciones en la red de organizaciones de odio prohibidas de Facebook. Su investigación demostró que eliminar la plataforma de estas organizaciones debido a cortes de red puede ayudar a que el ecosistema sea menos hospitalario para ciertas organizaciones peligrosas. Aunque las personas más cercanas a la audiencia principal de estos grupos de odio muestran signos de reacción en el corto plazo, la evidencia sugiere que reducen su interacción con la red y el contenido de odio con el tiempo. También sugiere que nuestras estrategias pueden reducir la capacidad de las organizaciones que incitan al odio para operar con éxito en línea.
Creación de flujos y herramientas de inteligencia artificial generativa
Si bien estas eliminaciones de redes son efectivas, son solo una de nuestras defensas más amplias contra grupos hostiles que atacan a personas en línea. Nuestras investigaciones y aplicación de la ley contribuyen a lo que llamamos el círculo virtuoso de la defensa: la mejora de nuestros sistemas escalables y la forma en que creamos nuevos productos.
Hilos: Desde el principio, nuestros sistemas y políticas de integridad, diseñados para Instagram y otras aplicaciones, se han integrado en la forma en que creamos Threads. Puede pensar en esto como subprocesos creados sobre una infraestructura global establecida que admite múltiples aplicaciones al mismo tiempo. Esto significa que nuestros esfuerzos de seguridad, como la lucha contra las operaciones encubiertas de influencia, se aplican a Threads tal como se aplican a Facebook e Instagram. De hecho, dentro de las 24 horas posteriores al lanzamiento de Threads, detectamos y bloqueamos intentos de establecer una presencia en Threads por parte de cuentas asociadas con una operación de influencia que habíamos frustrado en el pasado.
También implementamos funciones de transparencia adicionales en Threads, incluida la señalización de medios controlados por el gobierno y la visualización de más información sobre las cuentas para que las personas puedan saber, por ejemplo, si las cuentas pueden haber cambiado sus nombres. Sabemos que el comportamiento adversario seguirá evolucionando a medida que evolucione la aplicación Threads, y nosotros también lo haremos para adelantarnos a estas amenazas.
IA generativa: La apertura y la cooperación entre sociedades son aún más importantes cuando se trata de tecnologías en rápido desarrollo como la inteligencia artificial generativa. Además de un extenso equipo rojo interno donde nuestros equipos internos asumen el papel de adversarios para encontrar fallas, recientemente presentamos nuestro modelo de IA generativa en DEFCON, la conferencia de piratería más grande del mundo. Nos unimos a nuestros colegas de Google, NVIDIA, OpenAI y otros para probar nuestros diversos modelos en el primer Generative Red Team Challenge público.
Más de 2.200 investigadores, incluidos cientos de estudiantes y organizaciones tradicionalmente excluidos de las primeras etapas del cambio tecnológico, se han unido para encontrar errores y vulnerabilidades en estos sistemas. Según los organizadores de esta competencia, llevaron a cabo más de 17.000 conversaciones con sistemas de inteligencia artificial generativa para descubrir comportamientos no deseados que iban desde malas matemáticas hasta información errónea y prácticas deficientes de seguridad para los usuarios. Esta competencia abierta del equipo rojo contó con el apoyo de la Oficina de Política Científica y Tecnológica de la Casa Blanca, la Fundación Nacional de Ciencias y el Panel de IA del Congreso. Esperamos que un enfoque temprano en la implementación de mejores prácticas para este espacio emergente de IA generativa conduzca a sistemas más seguros a largo plazo.
Creemos que la apertura es la clave para resolver algunos de los mayores problemas que enfrentamos colectivamente en línea. Los informes de transparencia, la investigación académica y otras medidas de innovación abierta y pruebas de estrés de nuestros sistemas ayudan a nuestra industria a aprender unos de otros, mejorar los sistemas relacionados y mantener a las personas seguras en línea.
Puedes encontrar nuestro informes de integridad trimestrales en Centro de Meta Transparencia.