Con la llegada de ChatGPT, Bard y otros modelos de lenguaje extenso (LLM), estamos escuchando advertencias de personas como Elon Musk sobre los riesgos asociados con la inteligencia artificial (IA). Ahora, un grupo de líderes senior de la industria ha emitido una declaración de una oración que ha confirmado efectivamente esas preocupaciones.
Reducir el riesgo de extinción debido a la IA debería ser una prioridad global, junto con otros riesgos sociales como pandemias y guerras nucleares.
Fue alojado por AI Security Center, una organización cuya misión es «reducir los riesgos sociales asociados con la inteligencia artificial», según su sitio web. Los firmantes son quién es quién en la industria de la IA, incluido el director ejecutivo de OpenAI, Sam Altman, y el director ejecutivo de Google DeepMind, Demis Hassabis. Los investigadores Geoffrey Hinton y Yoshua Bengio, ganadores del Premio Turing, quienes son ampliamente considerados los padrinos de la IA moderna, también pusieron sus nombres en él.
Esta es la segunda declaración de este tipo en los últimos meses. En marzo, Musk, Steve Wozniak y más de 1000 personas pidieron una pausa de seis meses en el desarrollo de IA para que la industria y el público puedan adoptar la tecnología de manera efectiva. “En los últimos meses, los laboratorios de IA se han visto atrapados en una carrera incontrolable para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”, dice la carta.
Si bien la IA (probablemente) no es consciente de sí misma, como algunos temían, ya presenta un riesgo de mal uso y daño a través de falsificaciones profundas, desinformación automatizada y más. Los LLM también pueden cambiar la forma en que se crean el contenido, el arte y la literatura, lo que puede afectar muchos trabajos.
El presidente de EE. UU., Joe Biden, dijo recientemente que «queda por ver» si la IA es peligrosa y agregó que «las empresas tecnológicas, en mi opinión, tienen la responsabilidad de asegurarse de que sus productos sean seguros antes de que se hagan públicos… La IA puede ayudar a lidiar con algunos temas muy complejos como las enfermedades y el cambio climático, pero también debe considerar los riesgos potenciales para nuestra sociedad, nuestra economía y nuestra seguridad nacional». En una reunión reciente en la Casa Blanca, Altman pidió la regulación de la IA debido a los riesgos potenciales.
Dado que hay muchas opiniones, el nuevo breve comunicado pretende mostrar una preocupación común sobre los riesgos de la IA, aunque las partes no estén de acuerdo en qué se trata.
“Los expertos en IA, los periodistas, los políticos y el público están discutiendo cada vez más la amplia gama de riesgos importantes y urgentes asociados con la IA”, se lee en el preámbulo de la declaración. “Sin embargo, puede ser difícil expresar preocupación por algunos de los riesgos más graves de la IA avanzada. La breve declaración a continuación tiene como objetivo superar este obstáculo y abrir la discusión. También se pretende crear conocimiento compartido entre un número creciente de expertos y el público. números que también toman en serio algunos de los mayores riesgos de la IA avanzada”.