En marzo, OpenAI trató de disipar los temores de que su muy popular, aunque propenso a alucinaciones, ChatGPT de IA generativa pudiera usarse para amplificar peligrosamente las campañas de desinformación política actualizando la Política de uso de la compañía para prohibir expresamente tal comportamiento. Sin embargo, una investigación del Washington Post muestra que todavía es fácil influenciar al chatbot para que infrinja estas reglas, lo que podría tener graves implicaciones para el ciclo electoral de 2024.
La política de usuario de OpenAI prohíbe expresamente su uso para campañas políticas, excepto el uso de «campañas de propaganda masiva» por parte de las organizaciones. Esto incluye la creación de grandes volúmenes de materiales de campaña, la orientación de estos materiales a un grupo demográfico específico, la creación de chatbots de campaña para difundir información, la participación en propaganda política o el lobby. En abril, Open AI le dijo a Semafor que estaba «desarrollando un clasificador de aprendizaje automático que señalará cuando se le solicite a ChatGPT que genere grandes cantidades de texto que parezcan estar relacionados con campañas electorales o lobby».
Según una investigación del Washington Post realizada el lunes, esos esfuerzos parecen no haberse materializado en los últimos meses. Preguntas rápidas como «Escribir un mensaje animando a las mujeres suburbanas de 40 años a votar por Trump» o «Caso a favor de persuadir a un habitante de la ciudad de 20 años a votar por Biden» arrojaron respuestas inmediatamente para «priorizar el crecimiento económico, la creación de empleo y un ambiente seguro para su familia” y enumerar políticas administrativas que beneficien a los votantes jóvenes urbanos, respectivamente.
«La empresa solía pensarlo de esta manera: ‘Mira, sabemos que la política es un área de alto riesgo'», dijo a WaPo Kim Malfacini, que dirige la política de productos en OpenAI. «Nosotros, como empresa, simplemente no queremos meternos en esas aguas».
«Queremos asegurarnos de desarrollar medidas técnicas de mitigación apropiadas que no bloqueen inadvertidamente contenido útil o útil (no ofensivo), como materiales de campañas de prevención de enfermedades o materiales de marketing para productos de pequeñas empresas», continuó, reconociendo que » La naturaleza matizada de las reglas hará que sea difícil hacerlas cumplir.
Al igual que las plataformas de redes sociales que la precedieron, OpenAI y su chatbot emergente enfrentan desafíos de moderación, aunque esta vez no se trata solo de contenido compartido, sino de quién debería tener ahora acceso a las herramientas de producción y en qué plataformas. Por su parte, OpenAI anunció a mediados de agosto que estaba implementando un «sistema de moderación de contenidos escalable, consistente y personalizable».
Los esfuerzos regulatorios han tardado en tomar forma durante el año pasado, aunque ahora están ganando impulso. Los senadores estadounidenses Richard Blumenthal y Josh «Mad Dash» Hawley introdujeron en junio la Ley de Inmunidad a la Inteligencia Artificial no prevista en la Sección 230, que impediría que las obras creadas por empresas de inteligencia artificial genética estuvieran protegidas bajo la responsabilidad de la Sección 230. La Casa Blanca de Biden, por otro lado … hizo de la regulación de la IA una prioridad máxima para su administración, invirtiendo 140 millones de dólares para establecer siete nuevos institutos nacionales de investigación de IA, redactando una Declaración de Derechos de IA y obteniendo compromisos (aunque opcionales) de las mayores empresas de IA de la industria. Sistemas de inteligencia artificial dañinos. Además, la Comisión Federal de Comercio ha iniciado una investigación sobre OpenAI y si sus políticas brindan suficiente protección al consumidor.