A pesar de su capacidad para crear una prosa increíblemente realista, las IA generativas como Bard de Google o ChatGPT de OpenAI (basado en GPT-4) ya han demostrado las limitaciones actuales de la tecnología gen-AI, así como su propia comprensión deficiente de los hechos, afirmando que JWST fue el primer telescopio en fotografiar un exoplaneta, y que el padre de Elvis era actor. Pero con tanta participación de mercado en juego, ¿qué pueden decir unos pocos datos mal citados en contra de llevar su producto a las manos de los consumidores lo más rápido posible?
El equipo de Anthropic, por otro lado, está compuesto principalmente por ex empleados de OpenAI, y han adoptado un enfoque más pragmático para desarrollar su propio chatbot Claude. El resultado es una IA que es «más manejable» y «mucho menos probable que produzca resultados dañinos» que ChatGPT, según un informe de SocialRed.
Claude ha estado en versión beta cerrada desde fines de 2022, pero recientemente comenzó a probar las capacidades de IA conversacional con socios de lanzamiento que incluyen Robin AI, Quora y el motor de búsqueda centrado en la privacidad Duck Duck Go. La compañía aún no ha anunciado los precios, pero le ha confirmado a TC que habrá dos versiones disponibles en el lanzamiento: la API estándar y una iteración más rápida y liviana que llamaron Claude Instant.
“Estamos utilizando a Claude para evaluar partes del contrato y crear un lenguaje nuevo y alternativo que sea más conveniente para nuestros clientes”, dijo a SocialRed el director ejecutivo de Robin, Richard Robinson. “Descubrimos que Claude tiene una muy buena comprensión del idioma, incluso en áreas técnicas como el lenguaje legal. También tiene mucha confianza para redactar, resumir, traducir y explicar conceptos complejos en términos simples.”
Anthropic cree que es menos probable que Claude se vuelva rebelde y escupa obscenidades racistas como lo hizo Thay, en parte debido a un régimen especial de entrenamiento de IA que la compañía llama «IA constitucional». La compañía afirma que esto proporciona un enfoque de «principios» para unir a humanos y robots en la misma página ética. Anthropic comenzó con 10 principios fundamentales, aunque la compañía no revela cuáles son, a saber, las 11 hierbas y especias secretas de un extraño truco de marketing, baste decir que «se basan en los conceptos de beneficencia, inocuidad y autonomía». , según TC.
Luego, la compañía entrenó una IA separada para generar texto de manera confiable de acuerdo con estos principios semisecretos, respondiendo a múltiples solicitudes escritas como «componer un poema al estilo de John Keats». Este modelo luego entrenó a Claude. Pero el hecho de que haya sido entrenado para ser menos problemático que sus competidores no significa que Claude no esté alucinando los hechos como un CEO de una startup en un retiro de ayahuasca. AI ya ha inventado una licencia artística aplicada y química completamente nueva para el proceso de enriquecimiento de uranio; Según los informes, obtuvo una puntuación más baja que ChatGPT en las pruebas estandarizadas tanto en matemáticas como en gramática.
«El desafío es crear modelos que nunca alucinen pero que sean útiles; puedes entrar en una situación difícil en la que el modelo piense que la mejor manera de no mentir nunca es no decir nada en absoluto, por lo que aquí hay un compromiso», en el que estamos trabajando. . on”, dijo un portavoz de Anthropic a TC. «También hemos avanzado en la reducción de las alucinaciones, pero aún queda mucho por hacer».