サービスフローに生成AIタスクを追加する
ジェネレーティブAIタスクは、 watsonx.ai™ AIソリューションを活用し、個性的で魅力的なコンテンツの作成を促進する。
ジェネレーティブAIのタスクは、あなたの特定の入力に基づいたテキストを生成し、幅広いコンテンツの作成を可能にします。 例えば、商品説明やブログ記事、ソーシャルメディアの更新をサポートすることができる。 この機能は、コンテンツ生成を自動化することで効率を向上させ、チームが他の重要なタスクにより多くの時間を割くことを可能にします。
生成AIタスクはどのように機能するのか?
ジェネレーティブAIのタスクは、機械学習アルゴリズムと自然言語処理(NLP)の組み合わせを使用して、入力を理解し、希望する出力を生成します。 以下は、その基本的な流れである:
- プロンプトや生成したいものの説明などの入力を行う。
- AIは機械学習アルゴリズムを使って入力を分析し、重要な概念やパターンを特定する。
- そしてAIは、入力と識別されたパターンに基づいて、NLPの機能を使用して出力テキストを生成する。
- AIは、要求された仕様を満たし、使用できる状態になるまで出力を改良する。
人間のようなテキストを理解し生成するために、生成AIは大規模言語モデル(LLM)や、書籍、記事、ウェブサイトなどの膨大なテキストデータで訓練された基礎モデルを使用する。 これらのモデルは、受け取った入力と同じようなスタイルや内容の応答を生成したり、プロンプトの指示に従って応答を生成したりする。
ご利用の watsonx.ai 接続によって、サポートされる基礎モデルのリストとそのライフサイクルは異なります。
watsonx.ai 接続が watsonx.ai の SaaS バージョンである場合
生成 AI タスクで使用できる基礎モデルのリストには以下が含まれます。
。
生成 AI タスクで使用できる基礎モデルのリストには以下が含まれます。- が提供するテキスト生成基盤モデル watsonx.ai
- オンデマンド基盤モデルの展開
- カスタム基盤モデル
注: watsonx.ai で提供される基礎モデルは定期的に更新・改良され、古いものは非推奨となり、最終的には廃止される。 モデルリストは時間の経過とともに変化するので、最初に選択したモデルが撤回された場合は、別のモデルで生成AIタスクを更新する必要があるかもしれない。
watsonx.ai で提供されるさまざまなデプロイメント タイプと基盤モデルの詳細については、 watsonx.ai の基盤モデルのデプロイメント方法を参照してください。
。ファンデーションモデルのライフサイクルの詳細については、 ファンデーションモデルのライフサイクル
ファウンデーションモデルのライフサイクルについては、ファウンデーションモデルのライフサイクルをご覧ください。
watsonx.ai IBM Cloud Pak® for Data のオンプレミス版 watsonx.ai 接続の場合、生成 AI タスクでどのテキスト生成基盤モデルをサポートするか、またそのライフサイクルを完全に制御することができます。 生成AIタスクで使用できる基礎モデルのリストには、以下のものが含まれる:
- テキスト生成の基礎モデル watsonx.ai
- カスタム基盤モデル
生成的AIタスクの能力とは?
以下の基本的な例は、生成AIが実行できるタスクの種類を示している:
- 分類
例カスタマーレビューをポジティブ、ニュートラル、ネガティブに分類する。 - 抽出
例顧客の苦情から詳細を抽出する。 - 生成
例:プロフェッショナルなメールを作成する - 質問に答える
例PIの値は?
要約する 例会議の記録を要約する- コードの生成と変換
例:華氏70度を摂氏に変換する。 PIの値を計算するJavaメソッドを書きなさい。 - 翻訳
例:フランス語、ドイツ語、イタリア語、スペイン語から英語にテキストを翻訳します。
ジェネレーティブAIの潜在的な用途は広大で、これらの例をはるかに超えている。 お客様のニーズに合わせて、数多くの可能性があります。
生成AIタスクを実装するには、どのようなステップが必要なのだろうか?
以下のステップは、生成AIタスクの作成プロセスの概要である:
- 特定の大規模言語モデル(LLM)を使用して、watsonx.aiプロバイダーに送信するプロンプトを作成します。
- LLMが分析するための指示と入力を含む。
- プロンプトをライブラリで再利用可能にするには、サービスフローから変数を使用します。
- 生成された出力で返されるデータ量を制御する。
- プロンプトを訓練することで、意図したタスクに合ったより良い結果を得ることができる。
プロンプトの作成方法の詳細については、以下のドキュメントを参照してください:
生成AIタスクからの出力応答は信頼できるのか?
生成AIタスクからの応答の質は、大規模な言語モデルの訓練と、提供される例を含むプロンプトの構築に依存する。 人間の監視がなければ、AIの幻覚に遭遇する危険性がある。すなわち、トレーニングデータに基づかない出力、トランスフォーマーによって誤ってデコードされた出力、識別可能なパターンに従わない出力などである。 詳しくは、 AIの幻覚とは?
.