El jefe de confianza y seguridad de OpenAI, Dave Wilner, dejó su puesto, como se anunció en una publicación de Linkedin. Willner permanece en su rol de «consultor», pero ha pedido a los seguidores de LinkedIn que «soliciten» oportunidades. El exjefe del proyecto OpenAI dice que la medida se debe a la decisión de pasar más tiempo con su familia. Sí, siempre dicen eso, pero Wilner lo continúa con detalles reales.
“En los meses posteriores al lanzamiento de ChatGPT, se me hizo cada vez más difícil cumplir con mi parte del trato”, escribe. “OpenAI está pasando por una fase de alta intensidad en su desarrollo, al igual que nuestros hijos. Cualquier persona con niños pequeños y un trabajo muy estresante puede sentir esa tensión”.
Continúa diciendo que está «orgulloso de todo» lo que la empresa ha logrado durante su mandato, y señala que fue «uno de los trabajos más geniales e interesantes» del mundo.
Por supuesto, esta transición se produce inmediatamente después de algunos obstáculos legales que enfrentan OpenAI y su producto patentado ChatGPT. La FTC inició recientemente una investigación sobre la empresa por preocupaciones de que viola las leyes de protección al consumidor y se involucra en prácticas «injustas o engañosas» que podrían dañar la privacidad y la seguridad del público. De hecho, la investigación está relacionada con un error que condujo a la filtración de datos personales de los usuarios, lo que ciertamente cae dentro del ámbito de la confianza y la seguridad.
Wilner dice que su decisión fue en realidad «una elección bastante fácil, aunque no una que la gente en mi posición suele hacer tan descaradamente en público». También dice que espera que su decisión ayude a normalizar discusiones más abiertas sobre el equilibrio entre el trabajo y la vida.
Las preocupaciones sobre la seguridad de la IA han aumentado en los últimos meses, y OpenAI es una de las empresas que acordó poner ciertas medidas de seguridad en sus productos a instancias del presidente Biden y la Casa Blanca. Estos incluyen dar acceso al código a expertos independientes, señalar los riesgos para la sociedad, como el sesgo, compartir información de seguridad con el gobierno y marcar con agua el contenido de audio y video para que las personas sepan que fue creado por AI.
Todos los productos recomendados por SocialRed son seleccionados por nuestro equipo editorial independientemente de nuestra empresa matriz. Algunas de nuestras historias contienen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son actuales en el momento de la publicación.