La creciente industria de la IA ha pasado de la fase de «movimiento rápido» a la parte en la que «rompemos cosas», ¡al igual que la sociedad! Desde el lanzamiento de ChatGPT en noviembre pasado, los sistemas de IA generativa han arrasado en el mundo digital, encontrando aplicaciones en todo, desde codificación automática y aplicaciones industriales hasta diseño de juegos y entretenimiento virtual. También se utilizó rápidamente con fines ilegales, como escalar los correos electrónicos no deseados y crear deepfakes.
Es un genio de la tecnología que nunca volveremos a meter en la botella, así que será mejor que sigamos regulándolo, argumenta el autor, empresario, inversionista y asesor político de Silicon Valley, Tom Kemp, en su nuevo libro Containing Big Tech. : Cómo proteger nuestros derechos civiles, nuestra economía y nuestra democracia. En el siguiente extracto, Kemp explica qué forma podría adoptar esta regulación y qué significaría su cumplimiento para los consumidores.
Prensa rápida de la empresa
Extracto de Contener a las grandes tecnologías: cómo proteger nuestros derechos civiles, nuestra economía y nuestra democracia (IT Rev, 22 de agosto de 2023)Tom Kemp.
Hoja de ruta para la contención de la IA
Pandora en el mito griego trajo grandes regalos, pero también provocó grandes calamidades y calamidades. Lo mismo ocurre con la IA: debemos aprovecharla, pero mantener el daño potencial que la IA puede causar a los humanos, dentro de la proverbial caja de Pandora.
Cuando el New York Times preguntó a la Dra. Timnit Gebru, fundadora de Distributed Artificial Intelligence Research (DAIR), cómo contrarrestar el sesgo de la IA, ella respondió en parte: “Necesitamos principios y estándares, y gobernanza del cuerpo y voto de la gente. en cosas que se prueban «. y algoritmos, algo similar a la FDA [Food and Drug Administration]. Así que para mí no es tan fácil como crear un conjunto de datos más diverso y ya está solucionado».
Ella tiene razón. En primer lugar, necesitamos regulación. La IA es un juego nuevo y necesita reglas y jueces. Sugirió que necesitamos un análogo de la FDA para la inteligencia artificial. En esencia, tanto la AAA como la ADPPA están pidiendo a la FTC que actúe en este papel, pero en lugar de que la FDA se encargue de la presentación y aprobación de los medicamentos, las grandes empresas de tecnología y otros deberían enviar sus evaluaciones sobre el impacto de la IA en los sistemas de IA. a la FTC. Estas puntuaciones se centrarán en los sistemas de inteligencia artificial en áreas de alto impacto como la vivienda, el empleo y el crédito, lo que nos ayudará a abordar mejor la línea roja digital. Por lo tanto, estos proyectos de ley promueven la necesaria rendición de cuentas y transparencia para los consumidores.
En el otoño de 2022, la Oficina de Política Científica y Tecnológica (OSTP) de la administración Biden incluso propuso un «Plan de Declaración de Derechos de IA». Los recursos incluyen el derecho a «saber que un sistema automatizado está en uso y comprender cómo y por qué contribuye a los resultados que le afectan». Es una gran idea y podría incluirse en las responsabilidades de elaboración de normas que tendría la FTC si se aprobara la AAA o la ADPPA. La cuestión es que la IA no debería ser una completa caja negra para los consumidores, y los consumidores deberían tener derecho a saber y objetar, del mismo modo que deberían tener derecho a recopilar y procesar sus datos personales. Además, los consumidores deberían tener derecho a emprender acciones privadas si los sistemas basados en IA les perjudican. Y los sitios web con cantidades significativas de texto e imágenes generados por IA deberían tener el equivalente a una etiqueta nutricional para que sepamos en qué se diferencia el contenido generado por IA del contenido generado por humanos.
También necesitamos certificaciones de IA. Por ejemplo, la industria financiera cuenta con contadores públicos certificados (CPA) y auditores e informes financieros certificados, por lo que debemos tener un equivalente de IA. Y necesitamos códigos de conducta para el uso de la IA, así como estándares de la industria. Por ejemplo, la Organización Internacional de Normalización (ISO) publica estándares de gestión de calidad que las organizaciones pueden cumplir en materia de ciberseguridad, seguridad alimentaria y más. Afortunadamente, un grupo de trabajo de ISO ha comenzado a desarrollar un nuevo estándar de gestión de riesgos de IA. En otro acontecimiento positivo, el Instituto Nacional de Estándares y Tecnología (NIST) publicó en enero de 2023 un marco inicial de gestión de riesgos de IA.
Necesitamos recordar a las empresas que necesitan tener equipos de diseño de IA más diversos e inclusivos. Como dijo Olga Rusakovskaya, profesora asociada de Ciencias de la Computación en la Universidad de Princeton: “Hay muchas oportunidades para diversificar este grupo. [of people building AI systems]y a medida que crezca la diversidad, los propios sistemas de IA se volverán menos sesgados”.
A medida que los reguladores y legisladores profundizan en las cuestiones antimonopolio que afectan a las grandes empresas de tecnología, no se debe pasar por alto la IA. Parafraseando a Wayne Gretzky, los reguladores deberían decidir hacia dónde va el disco, no hacia dónde ha estado. La IA es hacia donde se dirige el disco en tecnología. Por tanto, debería examinarse más de cerca la adquisición de empresas de inteligencia artificial por parte de grandes empresas tecnológicas. Además, el gobierno debería considerar hacer obligatoria la divulgación de propiedad intelectual para la IA. Por ejemplo, esto podría seguir el modelo del Decreto Federal de Consentimiento de Bell de 1956, que exigía que Bell otorgara licencias de todas sus patentes libres de regalías a otras empresas. Esto ha dado lugar a innovaciones increíbles como el transistor, la célula solar y el láser. Es malo para nuestra economía que el futuro de la tecnología se concentre en manos de unas pocas empresas.
Por último, nuestras sociedades y economías deben estar mejor preparadas para el impacto de la IA en el desplazamiento de trabajadores a través de la automatización. Sí, necesitamos preparar a nuestros ciudadanos con una mejor educación y preparación para nuevos empleos en el mundo de la inteligencia artificial. Pero debemos ser inteligentes al respecto, porque no podemos decir: volvamos a capacitar a todos para que sean desarrolladores de software, porque sólo unos pocos tienen esas habilidades o interés. También tenga en cuenta que la IA se construye cada vez más para automatizar el desarrollo de software, por lo que incluso saber qué habilidades de software enseñar en el mundo de la IA es fundamental. Como ha señalado el economista Joseph E. Stiglitz, hemos tenido problemas para gestionar cambios más pequeños en la tecnología y la globalización que han polarizado y debilitado nuestra democracia, mientras que los cambios en la IA son más profundos. Por lo tanto, debemos prepararnos para esto y garantizar que la IA sea netamente positiva para la sociedad.
Dado que las grandes empresas tecnológicas están liderando el desarrollo de la IA, generar un impacto positivo debe comenzar por ellas. La IA es increíblemente poderosa y las grandes empresas tecnológicas la apoyan plenamente, pero la IA conlleva riesgos si es sesgada o está diseñada para que se abuse de ella. Y como ya he documentado, las grandes empresas tecnológicas han tenido problemas para utilizar la IA. Esto significa que no solo está en riesgo la profundidad y amplitud de nuestra recopilación de datos confidenciales, sino también la forma en que las grandes empresas tecnológicas utilizan la IA para procesar esos datos y tomar decisiones automatizadas.
Entonces, así como debemos disuadir la vigilancia digital, también debemos asegurarnos de que las grandes empresas tecnológicas no abran la caja de Pandora con la IA.
Todos los productos recomendados por SocialRed son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias contienen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, es posible que ganemos una comisión de afiliado. Todos los precios son válidos en el momento de la publicación.