Was ist Claude AI?

Eine blaue Zeichnung von verschiedenen Würfeln, die ein Computernetzwerk darstellen

Autoren

Ivan Belcic

Staff writer

Cole Stryker

Staff Editor, AI Models

IBM Think

Was ist Claude AI?

Claude AI (Claude) ist ein generativer intelligenter Chatbot und eine Familie von großen Sprachmodellen (LLMs), die vom Forschungsunternehmen Anthropic entwickelt wurden. Claude zeichnet sich durch die Verarbeitung natürlicher Sprache (NLP) aus und ist multimodal: Es akzeptiert Text-, Audio- und visuelle Eingaben und kann Fragen beantworten, Dokumente zusammenfassen und Langformtexte, Diagramme, Animationen, Programmcode und vieles mehr generieren.

Claude hält sich an die Philosophie der konstitutionellen KI von Anthropic: einen Kodex ethischer Normen, der nach Ansicht des Unternehmens Claude von konkurrierenden KI-Modellen wie ChatGPT und Googles Gemini unterscheidet. Die Grundsätze der konstitutionellen KI konzentrieren sich auf die Sicherheit der KI und sollen Claude dabei unterstützen, hilfreichere Antworten zu geben und gleichzeitig schädliche Verhaltensweisen wie KI-Verzerrung zu vermeiden.

Claude 3, der im Mai 2024 veröffentlicht wurde, enthält einen kostenlosen und zwei Premium-KI-Chatbots.

  • Claude 3.5 Sonnet unterstützt die kostenlose Version von Claude AI. Durch seine Ausrichtung auf Geschwindigkeit kann es Benutzeranfragen und andere Aufgaben, die eine dringende Datenabfrage erfordern, schnell verarbeiten. Laut Anthropic ist Claude 3.5 Sonnet doppelt so schnell wie Claude 3 Opus, eines der beiden Premium-Angebote.
  • Claude 3 Opus ist eines von zwei Claude-Modellen, die derzeit für Claude Pro-Benutzer verfügbar sind. Es bietet umfassende Dienstleistungen im Bereich der Dokumentenverarbeitung und Inhaltserstellung und ist auf komplexe Aufgaben spezialisiert. Obwohl Opus langsamer als Claude 3.5 Sonnet ist, birgt es ein geringeres Risiko für Halluzinationen: Wenn ein KI-Modell falsche Informationen als faktisch korrekt ausgibt.
  • Claude 3 Haiku ist das zweite Premium-Angebot von Claude. Es ist das kleinste und schnellste der drei Modelle und eignet sich ideal für die Zusammenfassung langer Dokumente, den Kundenservice in Echtzeit und die Erstellung einfacher Texte.

Wofür wird Claude verwendet?

Jedes der drei Claude 3-Modelle hat seine eigenen speziellen Anwendungsfälle. Im Allgemeinen können Menschen Claude AI für eine Vielzahl von Aufgaben nutzen, darunter:

  • Beantwortung von Fragen und Recherche
  • Korrekturlesen und Lektorat
  • Zusammenfassung von Dokumenten, einschließlich PDF- und Word-Dokumenten
  • Generierung von Text und Inhalten
  • Sprachübersetzung
  • Erstellung von Geschäftsplänen
  • Bild- und Audioverarbeitung
  • Generierung und Überprüfung von Code-Snippets

Im Gegensatz zu Claude 2 und 1 ist Claude 3 multimodal: Es kann neben textbasierten Prompts auch Bild- und Audioinhalte verarbeiten. Beispielsweise kann Claude 3 E-Commerce-Produktbeschreibungen auf der Grundlage von Bildern generieren. Claude 3 kann zwar selbst keine Nicht-Text-Inhalte generieren, aber seine multimodale Integration ist eine von mehreren neuen Funktionen, die es ihm ermöglichen, mit GPT-4 zu konkurrieren.

Wie funktioniert Claude AI?

Wie Gemini und ChatGPT von OpenAI basieren auch die KI-Systeme der Claude-Familie von Anthropic auf der Transformer-Architektur neuronaler Netze. Im Gegensatz zu seinen Mitbewerbern wendet Claude jedoch die Prinzipien der konstitutionellen KI an, um sein Verhalten zu steuern.

  • Transformer-Modelle zeichnen sich dadurch aus, dass sie Verbindungen zwischen weit auseinander liegenden Wörtern in einer Benutzereingabesequenz herstellen können, wodurch sie den Kontext besser verstehen und längere Antworten generieren können.
  • Konstitutionelle KI ist ein Leitfaden mit Grundsätzen zur Schadensminderung, der darauf abzielt, Claude vorteilhafter und weniger risikobehaftet zu machen.

Was sind Transformator-Modelle?

Transformatoren sind eine Art von KI-Modell, das für die leistungsstarke Verarbeitung natürlicher Sprache entwickelt wurde. Sie arbeiten mit komplexen mathematischen Algorithmen, um die wahrscheinlichste Antwort auf eine Benutzeranfrage statistisch vorherzusagen. Der Workflow lässt sich in vier grundlegende Schritte unterteilen.

Der Transformer teilt eine Benutzeranfrage in Token auf. Jedes Token stellt entweder ein ganzes Wort oder einen Teil eines Wortes dar. Die Preisgestaltung für KI-Modelle wird in der Regel als Kosten pro Token dargestellt. Das Kontextfenster von Claude Pro umfasst 200.000 Token.1 Das bedeutet, dass es Benutzerabfragen mit einer Länge von bis zu 200.000 Token verarbeiten kann.

  1. Jedes Token wird mittels mathematischer Verfahren in einen dreidimensionalen Vektorraum eingezeichnet. Token, die als semantisch ähnlicher eingestuft werden, werden räumlich näher beieinander dargestellt, was LLMs dabei hilft, Benutzereingaben zu verstehen. Das Ergebnis dieses Prozesses wird als Vektor-Einbettung bezeichnet.
  2. Transformer wie Claude und GPT-4 wenden Mechanismen der Selbstbeobachtung an, um Ressourcen selbst auf die relevantesten Teile einer Benutzeranfrage und eines Prozesskontexts zu lenken.
  3. Das Modell wendet probabilistische Algorithmen an, um die wahrscheinlichste Antwort auf eine Eingabe zu erzeugen. KI-Modelle wie das von Claude „wissen“ eigentlich nichts – vielmehr kombinieren sie ihre Trainingsdaten mit fortgeschrittenen Statistiken, um die wahrscheinlichsten Ergebnisse für Prompts zu ermitteln.

Was ist konstitutionelle KI?

Constitutional AI2 ist eine Reihe von KI-Ethik- und Sicherheitsprinzipien, die vom KI-Startup-Unternehmen Anthropic entwickelt wurden. Bei der Entwicklung von Claude hat Anthropic etwa 1.000 Personen um ihre Meinung gebeten und sie gebeten, über Regeln für den ethischen Betrieb generativer KI und den verantwortungsvollen Einsatz von KI abzustimmen und Vorschläge zu unterbreiten. Die endgültige Zusammenstellung der Regeln bildete die Grundlage für den Trainingsprozess von Claude.

Die ersten drei Regeln der konstitutionellen KI lauten:

  • Wählen Sie die Antwort, die am wenigsten gefährlich oder hasserfüllt ist.
  • Wählen Sie die Antwort, die so zuverlässig, ehrlich und nah wie möglich an der Wahrheit ist.
  • Wählen Sie die Antwort, die klare Absichten am besten vermittelt.

Während bei anderen Modellen die Inhalte von menschlichen Trainern in einem Prozess namens Reinforcement Learning from Human Feedback (RLHF) überprüft werden, wurde Claude sowohl mit RLHF als auch mit einem zweiten KI-Modell trainiert. Das Reinforcement Learning from AI Feedback (RLAIF) beauftragte das „Trainer”-Modell damit, Claudes Verhalten mit dem der konstitutionellen KI zu vergleichen und entsprechend zu korrigieren.

RLAIF automatisiert den Teil des Trainingsprozesses, der das Verhalten anpasst, und macht ihn kostengünstiger und effizienter, um ethisches Verhalten zu fördern. Das angestrebte Ergebnis ist, dass Claude eine Feinabstimmung vornimmt und lernt, schädliche Prompts zu vermeiden, während es hilfreiche Antworten auf Prompts generiert, die es für beantwortbar hält.

Wer ist Anthropic AI?

Anthropic ist ein KI-Startup-Unternehmen, das 2021 von mehreren ehemaligen OpenAI-Forschern und Führungskräften gegründet wurde, darunter die Geschwister Daniela und Dario Amodei. Amazon und Google haben jeweils Milliarden US-Dollar in das Unternehmen investiert, während OpenAI weiterhin von Microsoft unterstützt wird.

Die Geschwister Amodei trennten sich 2021 von OpenAI, ein Jahr bevor OpenAI GPT-3.5 veröffentlichte. Dies ist dasselbe KI-Modell, das auch heute noch das kostenlose KI-Tool ChatGPT antreibt. Zusammen mit anderen ehemaligen OpenAI-Forschern gründeten die Geschwister Amodei Anthropic AI und begannen mit der Arbeit an dem, was später Claude AI werden sollte.

Das charakteristische Merkmal von Anthropic ist ihr erklärter Ansatz für ethische KI, der durch den Trainingsprozess für konstitutionelle KI repräsentiert wird.

Die Vorteile von Claude vs. ChatGPT und Gemini

Bei der Veröffentlichung von Claude 3 führte Anthropic AI eine Reihe von LLM-Benchmarking-Tests durch, um ihre Modelle mit denen ihrer beiden Hauptkonkurrenten zu vergleichen: OpenAI und Google. Sowohl in diesen Tests als auch anderswo zeigte Claude mehrere wichtige Vorteile:

  • Größeres Kontextfenster
  • Starke Leistung in vielen Tests
  • Keine Aufbewahrung von Eingabe- oder Ausgabedaten

Größeres Kontextfenster

Claude kann Prompts mit bis zu 200.000 Tokens – etwa 350 Textseiten – verarbeiten und sich mehr Informationen merken und nutzen, um relevante Antworten zu erstellen. Im Vergleich dazu beschränken GPT-4 Turbo und GPT-4o die Nutzer auf 128.000 Token.

Dank Claudes Fähigkeit, mehr Informationen zu speichern, können Benutzer detaillierte, datenreiche Prompts erstellen. Je mehr Daten in der Eingabesequenz enthalten sind, desto relevanter kann die Antwort eines KI-Modells sein.

Starke Leistung in vielen Tests

Als Anthropic Claude 3 gegen GPT-4 und Gemini 1.0 testete,3 schnitt Claude 3 Opus in allen ausgewählten Bewertungsbenchmarks am besten ab. Gemini 1.0 Ultra schnitt in vier der sechs Sehtests am besten ab, obwohl die Modelle der Claude-Familie vergleichbare Ergebnisse erzielten.

GPT-4o und Gemini 1.5 wurden jedoch nicht in den Testpool aufgenommen. Bei der Vorstellung von GPT-4o im Mai 20244 führte OpenAI einen Benchmark-Test durch, bei dem ihr neues Flaggschiff-Modell Claude 3 Opus in fünf von sechs durchgeführten Tests schlug.

Keine Aufbewahrung von Eingabe- oder Ausgabedaten

Nutzer, die sich um den Datenschutz sorgen, werden die Datenaufbewahrungsrichtlinie von Anthropic zu schätzen wissen:5 Darin heißt es, dass alle Benutzereingaben und -ausgaben nach 30 Tagen gelöscht werden. Die Datenrichtlinie von Google Gemini für Google Cloud besagt,6 dass das Unternehmen seine Modelle nicht mit Benutzerbefehlen trainieren wird.

Im Vergleich dazu kann OpenAI Nutzerdaten aufbewahren und verwenden,7 um ihre Modelle weiter zu trainieren. Die Gemini Apps-Richtlinien8 von Google erlauben es dem Unternehmen, Nutzerdaten zu speichern, es sei denn, der Nutzer deaktiviert diese Option manuell.

Nachteile von Claude

Obwohl Claude im Vergleich zur Konkurrenz insgesamt eine starke Leistung zeigt, weist es auch einige Schwächen auf, die seine Akzeptanz in der breiten Bevölkerung verzögern können.

  • Eingeschränkte Bilderzeugung
  • Kein Surfen im Internet

Eingeschränkte Bilderzeugung

Im Vergleich zu GPT-4o kann Claude weniger Bilder erstellen. Claude kann zwar interaktive Flussdiagramme, Entity-Relationship-Diagramme und Grafiken erstellen, ist jedoch nicht in der Lage, vollständige Bilder zu generieren.

Kein Surfen im Internet

Dank der Integration von Microsoft mit Bing kann GPT-4 bei der Beantwortung von Nutzeranfragen das Internet durchsuchen. Während Claude regelmäßig mit neuen Trainingsdaten aktualisiert wird, hinkt seine Wissensbasis immer mehrere Monate hinterher, bis Anthropic beschließt, Claude auf die gleiche Weise für das Internet zu öffnen.

Weiterführende Lösungen
Basismodelle

Erkunden Sie die Foundation-Model-Bibliothek im watsonx-Portfolio von IBM zur zuverlässigen Skalierung generativer KI für Ihr Unternehmen.

Entdecken sie watsonx.ai
Lösungen im Bereich künstlicher Intelligenz

Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
KI-Beratung und -Services

Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.

KI-Services entdecken
Machen Sie den nächsten Schritt

Erkunden Sie die Foundation-Model-Bibliothek im watsonx-Portfolio von IBM zur zuverlässigen Skalierung generativer KI für Ihr Unternehmen.

watsonx.ai erkunden Erkunden Sie KI-Lösungen
Fußnoten

1. How large is Claude Pro's Context Window? Anthropic, 2024 

2. Collective Constitutional AI: Aligning a Language Model with Public Input, Anthropic, 17. Oktober 2023 

3. Introducing the next generation of Claude, Anthropic, 4. März 2024 

4. Hello GPT-4o, OpenAI, 13. Mai 2024 

5. How long do you store personal data?, Anthropic, 2024 

6. How Gemini for Google Cloud uses your data, Google, 10 September 2024 

7. How your data is used to improve model performance, OpenAI, 17. September 2024 

8. Gemini Apps Privacy Hub, Google, 28. August 2024