Claude AI (Claude) ist ein generativer intelligenter Chatbot und eine Familie von großen Sprachmodellen (LLMs), die vom Forschungsunternehmen Anthropic entwickelt wurden. Claude zeichnet sich durch die Verarbeitung natürlicher Sprache (NLP) aus und ist multimodal: Es akzeptiert Text-, Audio- und visuelle Eingaben und kann Fragen beantworten, Dokumente zusammenfassen und Langformtexte, Diagramme, Animationen, Programmcode und vieles mehr generieren.
Claude hält sich an die Philosophie der konstitutionellen KI von Anthropic: einen Kodex ethischer Normen, der nach Ansicht des Unternehmens Claude von konkurrierenden KI-Modellen wie ChatGPT und Googles Gemini unterscheidet. Die Grundsätze der konstitutionellen KI konzentrieren sich auf die Sicherheit der KI und sollen Claude dabei unterstützen, hilfreichere Antworten zu geben und gleichzeitig schädliche Verhaltensweisen wie KI-Verzerrung zu vermeiden.
Claude 3, der im Mai 2024 veröffentlicht wurde, enthält einen kostenlosen und zwei Premium-KI-Chatbots.
Jedes der drei Claude 3-Modelle hat seine eigenen speziellen Anwendungsfälle. Im Allgemeinen können Menschen Claude AI für eine Vielzahl von Aufgaben nutzen, darunter:
Im Gegensatz zu Claude 2 und 1 ist Claude 3 multimodal: Es kann neben textbasierten Prompts auch Bild- und Audioinhalte verarbeiten. Beispielsweise kann Claude 3 E-Commerce-Produktbeschreibungen auf der Grundlage von Bildern generieren. Claude 3 kann zwar selbst keine Nicht-Text-Inhalte generieren, aber seine multimodale Integration ist eine von mehreren neuen Funktionen, die es ihm ermöglichen, mit GPT-4 zu konkurrieren.
Wie Gemini und ChatGPT von OpenAI basieren auch die KI-Systeme der Claude-Familie von Anthropic auf der Transformer-Architektur neuronaler Netze. Im Gegensatz zu seinen Mitbewerbern wendet Claude jedoch die Prinzipien der konstitutionellen KI an, um sein Verhalten zu steuern.
Transformatoren sind eine Art von KI-Modell, das für die leistungsstarke Verarbeitung natürlicher Sprache entwickelt wurde. Sie arbeiten mit komplexen mathematischen Algorithmen, um die wahrscheinlichste Antwort auf eine Benutzeranfrage statistisch vorherzusagen. Der Workflow lässt sich in vier grundlegende Schritte unterteilen.
Der Transformer teilt eine Benutzeranfrage in Token auf. Jedes Token stellt entweder ein ganzes Wort oder einen Teil eines Wortes dar. Die Preisgestaltung für KI-Modelle wird in der Regel als Kosten pro Token dargestellt. Das Kontextfenster von Claude Pro umfasst 200.000 Token.1 Das bedeutet, dass es Benutzerabfragen mit einer Länge von bis zu 200.000 Token verarbeiten kann.
Constitutional AI2 ist eine Reihe von KI-Ethik- und Sicherheitsprinzipien, die vom KI-Startup-Unternehmen Anthropic entwickelt wurden. Bei der Entwicklung von Claude hat Anthropic etwa 1.000 Personen um ihre Meinung gebeten und sie gebeten, über Regeln für den ethischen Betrieb generativer KI und den verantwortungsvollen Einsatz von KI abzustimmen und Vorschläge zu unterbreiten. Die endgültige Zusammenstellung der Regeln bildete die Grundlage für den Trainingsprozess von Claude.
Die ersten drei Regeln der konstitutionellen KI lauten:
Während bei anderen Modellen die Inhalte von menschlichen Trainern in einem Prozess namens Reinforcement Learning from Human Feedback (RLHF) überprüft werden, wurde Claude sowohl mit RLHF als auch mit einem zweiten KI-Modell trainiert. Das Reinforcement Learning from AI Feedback (RLAIF) beauftragte das „Trainer”-Modell damit, Claudes Verhalten mit dem der konstitutionellen KI zu vergleichen und entsprechend zu korrigieren.
RLAIF automatisiert den Teil des Trainingsprozesses, der das Verhalten anpasst, und macht ihn kostengünstiger und effizienter, um ethisches Verhalten zu fördern. Das angestrebte Ergebnis ist, dass Claude eine Feinabstimmung vornimmt und lernt, schädliche Prompts zu vermeiden, während es hilfreiche Antworten auf Prompts generiert, die es für beantwortbar hält.
Anthropic ist ein KI-Startup-Unternehmen, das 2021 von mehreren ehemaligen OpenAI-Forschern und Führungskräften gegründet wurde, darunter die Geschwister Daniela und Dario Amodei. Amazon und Google haben jeweils Milliarden US-Dollar in das Unternehmen investiert, während OpenAI weiterhin von Microsoft unterstützt wird.
Die Geschwister Amodei trennten sich 2021 von OpenAI, ein Jahr bevor OpenAI GPT-3.5 veröffentlichte. Dies ist dasselbe KI-Modell, das auch heute noch das kostenlose KI-Tool ChatGPT antreibt. Zusammen mit anderen ehemaligen OpenAI-Forschern gründeten die Geschwister Amodei Anthropic AI und begannen mit der Arbeit an dem, was später Claude AI werden sollte.
Das charakteristische Merkmal von Anthropic ist ihr erklärter Ansatz für ethische KI, der durch den Trainingsprozess für konstitutionelle KI repräsentiert wird.
Bei der Veröffentlichung von Claude 3 führte Anthropic AI eine Reihe von LLM-Benchmarking-Tests durch, um ihre Modelle mit denen ihrer beiden Hauptkonkurrenten zu vergleichen: OpenAI und Google. Sowohl in diesen Tests als auch anderswo zeigte Claude mehrere wichtige Vorteile:
Claude kann Prompts mit bis zu 200.000 Tokens – etwa 350 Textseiten – verarbeiten und sich mehr Informationen merken und nutzen, um relevante Antworten zu erstellen. Im Vergleich dazu beschränken GPT-4 Turbo und GPT-4o die Nutzer auf 128.000 Token.
Dank Claudes Fähigkeit, mehr Informationen zu speichern, können Benutzer detaillierte, datenreiche Prompts erstellen. Je mehr Daten in der Eingabesequenz enthalten sind, desto relevanter kann die Antwort eines KI-Modells sein.
Als Anthropic Claude 3 gegen GPT-4 und Gemini 1.0 testete,3 schnitt Claude 3 Opus in allen ausgewählten Bewertungsbenchmarks am besten ab. Gemini 1.0 Ultra schnitt in vier der sechs Sehtests am besten ab, obwohl die Modelle der Claude-Familie vergleichbare Ergebnisse erzielten.
GPT-4o und Gemini 1.5 wurden jedoch nicht in den Testpool aufgenommen. Bei der Vorstellung von GPT-4o im Mai 20244 führte OpenAI einen Benchmark-Test durch, bei dem ihr neues Flaggschiff-Modell Claude 3 Opus in fünf von sechs durchgeführten Tests schlug.
Nutzer, die sich um den Datenschutz sorgen, werden die Datenaufbewahrungsrichtlinie von Anthropic zu schätzen wissen:5 Darin heißt es, dass alle Benutzereingaben und -ausgaben nach 30 Tagen gelöscht werden. Die Datenrichtlinie von Google Gemini für Google Cloud besagt,6 dass das Unternehmen seine Modelle nicht mit Benutzerbefehlen trainieren wird.
Im Vergleich dazu kann OpenAI Nutzerdaten aufbewahren und verwenden,7 um ihre Modelle weiter zu trainieren. Die Gemini Apps-Richtlinien8 von Google erlauben es dem Unternehmen, Nutzerdaten zu speichern, es sei denn, der Nutzer deaktiviert diese Option manuell.
Obwohl Claude im Vergleich zur Konkurrenz insgesamt eine starke Leistung zeigt, weist es auch einige Schwächen auf, die seine Akzeptanz in der breiten Bevölkerung verzögern können.
Im Vergleich zu GPT-4o kann Claude weniger Bilder erstellen. Claude kann zwar interaktive Flussdiagramme, Entity-Relationship-Diagramme und Grafiken erstellen, ist jedoch nicht in der Lage, vollständige Bilder zu generieren.
Dank der Integration von Microsoft mit Bing kann GPT-4 bei der Beantwortung von Nutzeranfragen das Internet durchsuchen. Während Claude regelmäßig mit neuen Trainingsdaten aktualisiert wird, hinkt seine Wissensbasis immer mehrere Monate hinterher, bis Anthropic beschließt, Claude auf die gleiche Weise für das Internet zu öffnen.
Erkunden Sie die Foundation-Model-Bibliothek im watsonx-Portfolio von IBM zur zuverlässigen Skalierung generativer KI für Ihr Unternehmen.
Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.
Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.
1. How large is Claude Pro's Context Window? Anthropic, 2024
2. Collective Constitutional AI: Aligning a Language Model with Public Input, Anthropic, 17. Oktober 2023
3. Introducing the next generation of Claude, Anthropic, 4. März 2024
4. Hello GPT-4o, OpenAI, 13. Mai 2024
5. How long do you store personal data?, Anthropic, 2024
6. How Gemini for Google Cloud uses your data, Google, 10 September 2024
7. How your data is used to improve model performance, OpenAI, 17. September 2024
8. Gemini Apps Privacy Hub, Google, 28. August 2024