Palabras de apertura del fundador y director ejecutivo de Meta, Mark Zuckerberg, en el AI Insight Forum organizado por los senadores Schumer, Rounds, Heinrich y Yang el 13 de septiembre de 2023.
¿Qué tan preparado para la entrega?
Gracias, senador Schumer, por reunir a este grupo. Gran parte del progreso reciente en inteligencia artificial proviene de las organizaciones presentes en esta sala. No es de extrañar que en Estados Unidos se estén realizando tantos trabajos de vanguardia, desde investigación básica hasta productos de consumo. La gente talentosa quiere crear cosas nuevas aquí y creo que eso ayuda a nuestra competitividad global. Y si bien la IA traerá avances en todas partes, espero que nuestro liderazgo aporte algunos beneficios duraderos a Estados Unidos con el tiempo.
Por lo tanto, estoy de acuerdo en que el Congreso debería colaborar con la IA para apoyar la innovación y las medidas de seguridad. Se trata de una tecnología nueva, hay importantes reservas que equilibrar y, en última instancia, el gobierno es responsable de ello.
Si bien la conversación en este momento se centra principalmente en la IA generativa, no debemos perder de vista avances más amplios en la visión por computadora, el procesamiento del lenguaje natural, la robótica y más que también tendrán un impacto en la sociedad. Por lo tanto, acogemos con agrado una participación reflexiva aquí para garantizar los mejores resultados posibles para las personas.
De cara al futuro, veo dos desafíos decisivos para la IA.
El primero es la seguridad. Las nuevas tecnologías a menudo crean nuevos desafíos y las empresas deben asegurarse de que creamos e implementamos productos de manera responsable. En Meta, incorporamos barreras de seguridad en nuestros modelos y productos de IA generativa desde el principio, y trabajamos con otros para construir barreras de seguridad. Y vamos a pensar en cómo vamos a implementar estos productos.
Esto significa asociarse con científicos y publicar investigaciones abiertamente, compartir tarjetas modelo y establecer políticas que prohíban ciertos usos y, en el caso de Llama 2, formar equipos rojos con nuestros modelos y emitir pautas de uso responsable para los desarrolladores. También significa trabajar con expertos de toda la sociedad, por ejemplo, a través de los esfuerzos de la Asociación sobre IA para desarrollar formas de identificar y marcar el contenido de IA.
Creemos que los formuladores de políticas, los científicos, la sociedad civil y la industria deben trabajar juntos para minimizar los riesgos potenciales de esta nueva tecnología y al mismo tiempo maximizar los beneficios potenciales. Si cree que esta generación de herramientas de inteligencia artificial es un importante paso adelante, es importante no subestimar el potencial de crecimiento.
Otro tema importante es el acceso. El acceso a la inteligencia artificial moderna se convertirá en un generador de oportunidades cada vez más importante en el futuro, y creo que esto será cierto para los individuos, las empresas y la economía en su conjunto.
En Meta, tenemos una larga historia de apertura de nuestra infraestructura y trabajo en inteligencia artificial, incluido Llama2, que lanzamos hoy en estrecha colaboración con otras empresas.
Pero quiero enfatizar que no somos fanáticos en este tema. No abrimos todo el código fuente. Creemos que los modelos cerrados son buenos, pero también creemos que un enfoque más abierto crea más valor en muchos casos. Dado el estado actual de la tecnología, creemos que este es el enfoque responsable, pero aquí hay algunas cosas en las que estamos pensando mientras intentamos equilibrarlo.
En primer lugar, creo que es importante que Estados Unidos siga liderando este campo y establezca el estándar técnico que utiliza el mundo. El próximo modelo líder de código abierto se originó en Abu Dabi, y otros países también están trabajando en él. Creo que es mejor si los estándares los establecen empresas estadounidenses que puedan trabajar con nuestro gobierno para dar forma a esos modelos en cuestiones importantes.
En segundo lugar, podemos incorporar controles de seguridad en estos sistemas para hacerlos más seguros, incluida la selección de datos de capacitación, la colaboración interna y externa proactiva para identificar y resolver problemas, ajustar los modelos para lograr coherencia y colaborar con los equipos de seguridad. Los proveedores de nube con propósito están agregando filtros adicionales a los sistemas que lanzamos y que la mayoría de la gente realmente usará.
En tercer lugar, está ampliamente aceptado que el software de código abierto es más seguro y confiable porque más personas pueden estudiarlo para identificar problemas y luego compartir y difundir soluciones que luego pueden usarse para fortalecer los sistemas.
Y cuarto, el código abierto democratiza el acceso a estas herramientas, y esto ayuda a nivelar el campo de juego y promover la innovación para las personas y las empresas, lo cual creo que es valioso para nuestra economía en su conjunto.
Ahora bien, si en algún momento en el futuro estos sistemas se acercan al nivel de superinteligencia, entonces estos valores cambiarán y reconsideraremos este enfoque. Pero al mismo tiempo, las personas con las tecnologías de la generación actual pueden beneficiarse enormemente y estamos dispuestos a cooperar con el gobierno también en este tema.