Claude AI (Claude) es un chatbot de inteligencia artificial (IA) generativa y una familia de modelos de lenguaje grandes (LLM) desarrollados por la empresa de investigación Anthropic. Claude se destaca en el procesamiento de lenguaje natural (PLN) y es multimodal: acepta entradas de texto, audio y visuales y puede responder preguntas, resumir documentos y generar texto de formato largo, diagramas, animaciones, código de programa y más.
Claude se adhiere a la filosofía de IA constitucional de Anthropic: un código de normas éticas que la empresa cree que diferencia a Claude de los modelos de IA de la competencia, como ChatGPT y Gemini de Google. Los principios de la IA constitucional se centran en la seguridad de la IA, diseñados para guiar a Claude para que proporcione respuestas más útiles y, al mismo tiempo, evite comportamientos dañinos, como el sesgo de la IA.
Claude 3, lanzado en mayo de 2024, incluye un chatbot de IA gratuito y dos premium.
Cada uno de los tres modelos de Claude 3 tiene sus propios casos de uso especializados. En general, las personas pueden usar Claude AI para ayudar con una amplia gama de tareas, que incluyen:
A diferencia de Claude 2 y 1, Claude 3 es multimodal: puede procesar contenido de imagen y audio junto con instrucciones basadas en texto. Por ejemplo, Claude 3 puede generar descripciones de productos de comercio electrónico basadas en imágenes. Si bien Claude 3 no puede generar contenido que no sea de texto por sí solo, su integración multimodal es una de varias características nuevas que le permiten competir con GPT-4.
Al igual que Gemini y ChatGPT de OpenAI, la familia de sistemas de IA Claude de Anthropic se basa en la arquitectura transformadora de la red neuronal de IA. Pero a diferencia de sus competidores, Claude aplica los principios de la IA constitucional para regir su comportamiento.
Los transformadores son un tipo de modelo de IA creado para el procesamiento de lenguaje natural de alto rendimiento. Funcionan aplicando algoritmos matemáticos complejos para predecir estadísticamente la respuesta más probable a una consulta del usuario. El flujo de trabajo se puede dividir en cuatro pasos básicos.
El transformador divide una consulta de usuario en tokens. Cada token representa una palabra completa o una parte de una palabra. Los precios del modelo de IA suelen representarse como el costo por token. La ventana de contexto de Claude Pro es de 200 000 tokens1, lo que significa que puede procesar consultas de usuario de hasta 200 000 tokens de longitud.
La IA constitucional2 es un conjunto de principios de ética y seguridad de la IA creados por la startup de IA Anthropic. Al diseñar Claude, Anthropic obtuvo entrada de aproximadamente 1000 personas, a las cuales se les pidió que votaran y sugirieran reglas para la operación ética de la IA generativa y el uso de IA responsable. El conjunto final de reglas formó la base del proceso de entrenamiento de Claude.
Las tres primeras reglas de la IA constitucional son:
Mientras que otros modelos tienen su contenido revisado por entrenadores humanos en un proceso llamado aprendizaje por refuerzo a partir de feedback humano (RLHF), el de Claude se entrenó con RLHF, así como con un segundo modelo de IA. El aprendizaje por refuerzo a partir de feedback de la IA (RLAIF) encargó al modelo de "entrenador" comparar el comportamiento de Claude con la IA constitucional y corregirlo en consecuencia.
El RLAIF automatiza la parte de ajuste de comportamiento del proceso de entrenamiento, lo que hace que sea más barato y eficiente fomentar el comportamiento ético. El resultado previsto es que Claude se ajuste a sí mismo, aprendiendo a evitar instrucciones dañinas mientras genera respuestas útiles a las instrucciones que considera responsables.
Anthropic es una startup de IA fundada en 2021 por varios exinvestigadores y ejecutivos de OpenAI, incluidos los hermanos Daniela y Dario Amodei. Amazon y Google han invertido miles de millones de dólares en la empresa, mientras que OpenAI sigue disfrutando del respaldo de Microsoft.
Los hermanos Amodei se separaron de OpenAI en 2021, un año antes de que OpenAI lanzara GPT-3.5. Este es el mismo modelo de IA que sigue potenciando la herramienta gratuita de ChatGPT de IA hoy en día. Junto con otros exinvestigadores de OpenAI, los hermanos Amodei fundaron Anthropic AI y comenzaron a trabajar en lo que se convertiría en Claude AI.
La característica definitoria de Anthropic es su enfoque declarado de la IA ética, representado por el proceso de entrenamiento de IA constitucional.
En el lanzamiento de Claude 3, Anthropic IA realizó una serie de pruebas comparativas de LLM para evaluar sus modelos con los de sus dos principales competidores: OpenAI y Google. Tanto en esas pruebas como en otras, Claude demostró varias ventajas clave:
Capaz de responder a instrucciones de hasta 200 000 tokens (aproximadamente 350 páginas de texto), Claude puede recordar y usar más información al crear respuestas relevantes. En comparación, GPT-4 Turbo y GPT-4o limitan a los usuarios a 128 000 tokens.
La capacidad de Claude para retener más información permite a los usuarios crear instrucciones detalladas y llenas de datos. Cuantos más datos contenga la secuencia de entrada, más relevante puede ser la respuesta de un modelo de IA.
Cuando Anthropic probó Claude 3 frente a GPT-4 y Gemini 1.03, Claude 3 Opus obtuvo el mejor desempeño en todos los puntos de referencia de evaluación seleccionados. Gemini 1.0 Ultra se impuso en cuatro de las seis pruebas de visión, aunque la familia de modelos Claude tuvo un rendimiento comparable.
Sin embargo, GPT-4o y Gemini 1.5 no se incluyeron en el grupo de pruebas. Al revelar GPT-4o en mayo de 20244, OpenAI realizó una evaluación comparativa que vio a su nuevo modelo insignia vencer a Claude 3 Opus en cinco de las seis pruebas realizadas.
Los usuarios preocupados por la privacidad de datos pueden apreciar la política de retención de datos de Anthropic5: establecen que todas las entradas y salidas de los usuarios se eliminan después de 30 días. La política de datos Gemini para Google Cloud6 de Google indica que la empresa no entrenará sus modelos con instrucciones para los usuarios.
En comparación, OpenAI puede retener y emplear los datos de los usuarios7 para seguir entrenando sus modelos. Las políticas de aplicaciones Gemini de Google8 permiten a la empresa retener los datos del usuario a menos que el usuario desactive manualmente esta opción.
Si bien el desempeño general de Claude es sólido en comparación con la competencia, también tiene algunas debilidades que pueden retrasar su aceptación por parte de la población en general.
En comparación con GPT-4o, Claude es menos capaz de crear imágenes. Si bien Claude puede producir diagramas de flujo interactivos, diagramas de relación de entidades y gráficos, no llega a generar imágenes completas.
Debido a la integración de Microsoft con Bing, GPT-4 puede buscar en Internet al responder a las consultas de los usuarios. Si bien Claude se actualiza regularmente con nuevos datos de entrenamiento, su base de conocimientos siempre está retrasada varios meses hasta que Anthropic elige abrir Claude a Internet de la misma manera.
Explore la biblioteca de modelos fundacionales de IBM en la cartera de watsonx para escalar la IA generativa para su negocio con confianza.
Ponga la IA a trabajar en su negocio con la experiencia en IA líder en la industria y la cartera de soluciones de IBM a su lado.
Reinvente los flujos de trabajo y las operaciones críticas mediante la incorporación de IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.
1. How large is Claude Pro's Context Window? Anthropic, 2024
2. Collective Constitucional AI: Aligning a Language Model with Public Input, Anthropic, 17 de octubre de 2023
3. Introducing the next generation of Claude, Anthropic, 4 de marzo de 2024
4. Hello GPT-4o, OpenAI, 13 de mayo de 2024
5. How long do you store personal data?, Anthropic, 2024
6. How Gemini for Google Cloud uses your data, Google, 10 de septiembre de 2024
7. How your data is used to improve model performance, OpenAI, 17 de septiembre de 2024
8. Gemini Apps Privacy Hub, Google, 28 de agosto de 2024