ClaudeAI(Claude)は、調査会社であるAnthropicによって開発された生成型人工知能(AI)チャットボットおよび大規模言語モデル(LLM)の仲間です。Claudeは自然言語処理(NLP)に長けており、マルチモーダル式です。テキスト、音声、視覚的なインプットを受け入れ、質問に答えたり、ドキュメントを要約したり、長文のテキスト、図、アニメーション、プログラム・コードなどを生成したりすることができます。
Claudeは、Anthropicの憲法AIの哲学を遵守しています。これは、ChatGPTやGoogleのGeminiなどの競合AIモデルとClaudeを差別化する倫理規範であると同社は考えています。憲法AIの原則はAIの安全性に焦点を当てており、AIバイアスなどの有害な行動を回避しながら、より有益な応答を提供できるようにClaudeを導くように設計されています。
2024年5月にリリースされるClaude 3には、無料AIチャットボット1つとプレミアムAIチャットボット2 つが含まれます。
3つのClaude 3モデルには、それぞれ独自のユースケースがあります。一般的に、Claude AIは次のような幅広いタスクの支援に使用できます。
Claude 2および1とは異なり、Claude 3はマルチモーダル式であり、画像や音声コンテンツをテキストベースのプロンプトと一緒に処理できます。例えば、Claude 3は画像に基づいて電子商取引の商品説明を生成することができます。Claude 3はそれ自体でテキスト以外のコンテンツを生成できませんが、そのマルチモーダル統合は、GPT-4との競合を可能にするいくつかの新しい機能の1つです。
GeminiやOpenAIのChatGPTと同様、AnthropicのClaudeファミリーのAIシステムは、ニューラル・ネットワークのトランスフォーマー・アーキテクチャーに基づいています。しかし、競合他社とは異なり、Claudeは憲法AIの原則を適用してその動作を制御しています。
トランスフォーマーは、高パフォーマンスの自然言語処理用に構築されたAIモデルの一種です。複雑な数学アルゴリズムを適用することで、ユーザーの問い合わせに対する最も可能性の高い回答を統計的に予測します。ワークフローは、4 つの基本ステップに分けられます。
トランスフォーマーはユーザーの問い合わせをトークンに分割します。各トークンは、単語全体または単語の一部を表します。AIモデルの料金体系は通常、トークンあたりのコストとして表されます。Claude Proのコンテキスト・ウィンドウは20万トークン1で、最大20万トークンの長さのユーザーの問い合わせを処理できることを意味します。
ConstitutionalAI2は、AIスタートアップ企業のAnthropicによって開発された一連のAI倫理と安全原則です。Claudeを設計する際、Anthropicは約1,000人から意見を集め、倫理的な生成AIの運用と責任あるAIの使用に関するルールについて投票と提案を求めました。最終的にまとめられたルールが、Claudeのトレーニング・プロセスの基礎となっています。
憲法AIの最初の3つのルールは次のとおりです。
他のモデルでは、「人間のフィードバックによる強化学習(RLHF)」と呼ばれるプロセスで人間のトレーナーがコンテンツを検証しますが、ClaudeのモデルはRLHFに加えて2番目のAIモデルを使用してトレーニングされました。「AIフィードバックからの強化学習(RLAIF)」では、「トレーナー」モデルにClaudeの動作を憲法AIと比較し、それに応じて修正するというタスクを課しました。
RLAIFはトレーニング・プロセスにおける行動調整部分を自動化し、倫理的な行動を促進するコスト削減と効率化を実現します。目的とする結果は、Claudeが自身をファイン・チューニングし、有害なプロンプトを回避することを学習しながら、回答可能と判断されたプロンプトに対して役立つ返答を生成することです。
Anthropicは、Daniela氏とDario Amadei氏を含む、複数の元OpenAI研究者と経営幹部によって2021年に設立されたAIスタートアップ企業です。AmazonとGoogleはそれぞれ数十億米ドルを同社に投資し、OpenAIは次に進むMicrosoftからの支援を受けています。
OpenAIがGPT-3.5をリリースする前の2021年に、Amodei兄弟はOpenAIと別れを告げました。これは、現在も無料のChatGPT AIツールを支え続けているのと同じAIモデルです。Amode兄弟は他の元OpenAI研究者とともにAnthropicAIを設立し、ClaudeAIとなるものの取り組みを開始しました。
Anthropicの特徴は、憲法AIのトレーニング・プロセスに代表される、倫理的AIに対するアプローチを明確にしていることです。
Claude 3をリリースした際、AnthropicAIは一連のLLMベンチマーク・テストを実施し、主要な2つの競合他社であるOpenAIとGoogleのモデルとの比較評価を行いました。これらのテストとその他のテストの両方で、Claudeは複数の重要な利点を実証しました。
最大20万トークン(テキストでは約350ページ)のプロンプトを送信できるため、Claudeは関連する回答を作成する際に、より多くの情報を記憶し、使用できます。一方、GPT-4 TurboとGPT-4oでは、ユーザーの数を128,000トークンに制限しています。
Claudeはより多くの情報を保持できるため、ユーザーは詳細なデータが満載のプロンプトを作成できます。入力シーケンスに含まれるデータが多いほど、AIモデルの回答の関連性は高まります。
AnthropicがClaude 3をGPT-4およびGemini 1.03と比較してテストした結果、Claude 3 Opusは選択されたすべての評価ベンチマークで最高のパフォーマンスを発揮しました。Gemini 1.0 Ultraは、6つのビジョン・テストのうち4つでトップになりましたが、Claudeファミリーのモデルは同等の成績を出しました。
ただし、GPT-4oおよびGemini 1.5はテスト・プールには含まれていませんでした。OpenAIは2024年5月にGPT-4oを発表した際4、ベンチマークを実施し、新しい主力モデルが6回のテストのうち5回でClaude 3 Opusを上回ったことを確認しました。
データ・プライバシーを懸念するユーザーは、Anthropicのデータ保持ポリシー5 を高く評価するかもしれません。ポリシーでは、すべてのユーザーの入力および出力は30日後に削除されると定められています。GoogleのGemini for Googleクラウド・データ・ポリシー6では、同社がユーザー・プロンプトを使用してモデルをトレーニングしないことが規定されています。
比較すると、OpenAIはユーザー・データを保持して使用し7モデルをさらにトレーニングすることができます。GoogleのGemini Appsポリシー8では、ユーザーがこのオプションを手動で無効にしない限り、会社がユーザー・データを保持することを許可します。
Claudeの全体的なパフォーマンスは競合製品と比べて優れていますが、より多くの人々に受け入れられるまでに時間を要しかねない弱点もいくつかあります。
GPT-4oと比較すると、Claudeは画像を作成する能力が低くなります。Claudeはインタラクティブなフローチャート、エンティティー関係図、グラフを作成できますが、完全な画像生成はできません。
MicrosoftとBingの統合により、GPT-4はユーザーの問い合わせに応答する際にインターネットを検索できます。Claudeは新しいトレーニング・データで定期的に更新されますが、Anthropicが同様にClaudeをインターネットに公開することを選択するまで、そのナレッジベースは常に数か月遅れます。
watsonxプラットフォームにある基盤モデルのIBMライブラリーを探索し、ビジネスに合わせて自信を持って生成AIを拡張します。
業界をリードするIBMのAI専門知識とソリューション製品群を使用すれば、ビジネスにAIを活用できます。
AIの導入で重要なワークフローと業務を再構築し、エクスペリエンス、リアルタイムの意思決定とビジネス価値を最大化します。
1. 「How large is Claude Pro's Context Window?」Anthropic、2024年
2. 「Collective Constitutional AI: Aligning a Language Model with Public Input」Anthropic、2023年10月17日
3. 「Introducing the next generation of Claude」Anthropic、2024年3月4日
4. 「Hello GPT-4o」OpenAI、2024年5月13日
5. 「How long do you store personal data?」Anthropic、2024年
6. 「How Gemini for Google Cloud uses your data」Google、2024年9月10日
7. 「How your data is used to improve model performance」OpenAI、2024年9月17日
8. 「Gemini Apps Privacy Hub」Google、2024年8月28日