サンプル・プロンプト

ラージ・ランゲージ・モデル(LLM)をサービス・フローでどのように活用できるかを理解するために、以下のサンプル・プロンプトをご覧ください。

これらの例を最大限に活用するために、さまざまなLLMを試し、 パラメータ・ セクションの値を調整することができる。 これにより、生成された出力が入力に基づいてどのように変化するかを確認することができる。

表 1. サンプル・プロンプト
コンテキスト 入力
融資承諾書の作成 入力された融資依頼に対する承諾書を作成する。

Customer{{customerName}}

参考{{ref}}

金額{{amount}}

翻訳の生成 入力が他言語の場合は、英語に翻訳してください {{message}}
センチメントの生成 インプットとして提供されたカスタマーレビューのセンチメントを分析し、0から5までのメモを与える。 出力は1桁でなければならない。 {{customerReview}}

Llama 3 モデルのプロンプト例

watsonx.ai™ -supported Llama 3, 3.1, 3.2, and 3.3 models are optimized for dialog use cases and fine tuned for a specific prompt format, which are described in the Prompt text section in Sample:で会話する Llama 3 外部リンクは新しいウィンドウまたはタブで開きます. 生成AIタスクはこの特定のプロンプト形式を使用するため、特定のプロンプトテンプレートでプロンプトテキストを作成する必要はない。

Llama-3-3-70b-instruct モデルを使用する場合、 Gen AI ページは以下の例のようになる:

RAWプロンプトを見ると、特定のプロンプトテンプレートが使用されていることに気づく。

ラマ以外のモデルのプロンプト例

ラマ以外のモデルでは、停止シーケンスを持つ一般的なテンプレートを使用する。

ラマ以外のモデルの場合、前の例では Gen AI ページに以下のオプションが表示されています:

対応するRAWプロンプトは次のようになる:

キュレーションモデルのプロンプト例

あるいは、一般的なテンプレートを使用するが、特定のプロンプトテンプレートを必要とするモデルの場合、 プロンプト -> コンテキスト領域でプロンプトとともにテンプレートを定義することができる。 プロンプト -> 入力エリアに値を入力する必要はありません。

例えば、キュレーションモデルのシナリオでは、モデルで必要とされるプロンプトテンプレートを使用することができます。 次の画面キャプチャでは、 プロンプト -> 入力エリアは空で、プロンプト -> コンテキストエリアにプロンプトテンプレートが用意されている。

対応するRAWプロンプトは次のようになる:

重要: 生成AIタスクのテキスト生成リクエストには停止シーケンスがある。