few-shotプロンプティングとは何ですか?

著者:

Vrunda Gadesha

AI Advocate | Technical Content Author

few-shotプロンプティングとは何ですか?

few-shotプロンプティングとは、AIモデルにそのパフォーマンスを導くためのいくつかのタスクのサンプルを提供するプロセスを指します。この方法は、広範なトレーニングデータが使用できないシナリオで特に役立ちます。

サンプルを必要としないzero-shotプロンプティングや、一つのサンプルに依存するone-shotプロンプティングなどの他の手法がありますが、few-shotプロンプティングでは複数のサンプルを使用して精度と適応性を向上させます。これ以外にも、思考の連鎖プロンプティングや思考の木プロンプティングなどの高度なプロンプト・エンジニアリング・フレームワークでも、サンプルを使用して目的のアウトプットを取得し、モデルのアウトプットを最適化します。

大量のラベル付きデータの収集が困難な生成AIの状況では、few-shot学習が不可欠です。プロンプト・メソッドではテキスト入力を構造化された形式に変換し、IBM Graniteシリーズ、MetaのLlamaモデル、OpenAIのGPT-3やGPT-4などのモデルが適切な応答で空白を埋めることができるようにし、広範なラベル付きデータセットがなくてもタスクを効果的に実行できます。[1]この手法はまた、特定のサンプルを通じてモデルをガイドすることで、事前定義されたアウトプット形式の取得もサポートし、目的の構造の一貫性と精度を確保します。

急速に進化する人工知能(AI)、機械学習(ML)、自然言語処理(NLP)の分野で、few-shotプロンプティングは強力な技術として登場しました。この方法では、モデルは限られたサンプルを使用してタスクを実行できるため、zero-shotプロンプティングやone-shotプロンプティングなどの他のプロンプト手法とは区別されます。OpenAIのGPT-3/GPT-4や、IBM GraniteモデルやMetaのLlamaモデルなどの大規模言語モデル(LLM)のような高度なAIシステムの可能性を最大限に活用するためには、few-shotプロンプティングを理解することが欠かせません。

図1は、大規模言語モデルを使用した感情分類のためのfew-shot学習プロセスを示しています。プロンプトには、「肯定的」または「否定的」とラベル付けされたテキストのサンプルを示しています。このモデルには、これらのラベル付けされたサンプルを確認した後、新しいテキスト(「この製品は費用対効果が非常に高い」)を「肯定的」と分類するタスクが与えられます。これは、few-shot学習により、モデルを少数のサンプルから一般化して特定のタスクを実行する方法を示しています。

few-shotプロンプティングはどのように機能しますか?

few-shotプロンプティングは、プロンプト内で目的のタスクのいくつかのサンプルをモデルに提示することによって動作します。この手法では、事前にトレーニングされた大規模言語モデル(LLM)の知識を活用して、限られたデータでも特定のタスクを効率的に実行します。

ユーザー・クエリー:このプロセスは、「この製品は非常にコストパフォーマンスが高い」などのユーザー・クエリーから始まります。

ベクトル・ストア:すべてのサンプルは、セマンティック検索用に最適化されたデータベースであるベクトル・ストアに保存されています。ユーザー・クエリーを受信すると、システムはセマンティック・マッチングを実行し、ベクトル・ストアから最も関連性の高いサンプルを見つけます。

関連するサンプルの取得:最も関連性の高いサンプルのみが取得され、プロンプトの作成に使用されます。このサンプルでは、検索拡張生成(RAG)を利用してベクトル・ストアからサンプルを取得し、プロンプトを特定のクエリーに合わせて調整するのに役立ちます。RAGは、few-shotプロンプティングに一般的に必要ではありませんが、文脈に即したサンプルが確実に使用されるようにすることでプロセスを大幅に強化し、特定のシナリオでのモデルのパフォーマンスを向上させることができます。

プロンプトの形成:プロンプトは、取得したサンプルとユーザー・クエリーを使用して構築されます。例えば、プロンプトは次のようになります。

LLM処理:構築されたプロンプトはLLMに入力されます。モデルはプロンプトを処理し、アウトプット(この場合はユーザー・クエリーの感情を分類する)を生成します。

アウトプット:LLMは、指定されたサンプルの「否定」などの分類を出力します。

研究では、広範なプロンプト・エンジニアリングへの依存を減らすfew-shot学習アプローチの有効性が明らかになりました。プロンプティングの前に大規模なデータセットを使用してモデル・パラメーターを調整する従来のファイン・チューニングと異なり、few-shot設定でのファイン・チューニングとは、プロンプト内に直接提供された少数のサンプルを使用して、事前にトレーニングされたモデルを適応させるプロセスを指します。このアプローチにより、モデルは大規模なデータセットでの追加トレーニングを必要とせずに、既存の知識をより効果的に活用できるようになります。[2]この研究では、「ヌル・プロンプト」(タスク固有のテンプレートやラベル付きサンプルを含まないプロンプト)を使用した場合でも、このモデルはさまざまなタスクにおいて競争力のある精度を達成できることが実証されました。例えば、ヌル・プロンプトでは、「次のテキストの感情は何ですか?」のような質問をするだけです。感情を分類する方法に関する具体的なサンプルや指示は提供しません。この構造の欠如にもかかわらず、モデルはうまくパフォーマンスを発揮でき、few-shot学習の堅牢性を示しています。

全体として、この研究では、few-shot学習は、特に構造化されたプロンプトを使用する場合に非常に効果的なプロンプトであることが示唆されています。ヌル・プロンプトでは良好な成果をもたらす可能性がありますが、いくつかの適切に選択されたサンプルを追加すると、特にラベル付きデータが限られているシナリオでは、モデルのパフォーマンスをさらに向上させることができ、汎用的で効率的なアプローチになります。[1]

few-shotプロンプティングの利点と限界

few-shotプロンプティングは、モデルが最小限のサンプルを使用してタスクを実行できるようにする自然言語処理(NLP)の強力な手法です。このアプローチには、その有効性と適用可能性に影響を与えるいくつかの利点と限界があります。

メリット

  1. 効率性と柔軟性:few-shotプロンプティングにより、トレーニングに必要なラベル付きデータの量が大幅に削減され、非常に効率的で新しいタスクに適応できるようになります。事前にトレーニングされた大規模な言語モデルを活用することで、few-shotプロンプティングは、限られたデータでも競争力のあるパフォーマンスを達成できます。例えば、後続の引用された研究では、著者らは、few-shot設定で言語モデルをファイン・チューニングすることで、広範なプロンプト・エンジニアリングの必要性が減り、幅広いタスクで高い精度を達成できることを示しました。[2]
  2. 多様なアプリケーションでのパフォーマンスの向上:few-shotプロンプティングでは、テキスト分類から機械翻訳などに至るまで、さまざまなアプリケーションで大幅な改善が見られます。例えば、次の引用された研究では、著者は、クロスタスクの知識を把握し、few-shotのテキスト分類タスクのパフォーマンスを大幅に向上させる、変換可能なプロンプト・フレームワークであるTransPromptを提案しました。[3]
  3. 異なるプロンプトに対する堅牢性:さまざまなプロンプト形成に対するfew-shotプロンプティングの堅牢性も、もう1つの重要な利点です。Feihu Jin氏らが説明するように、統合プロンプト・チューニング(UPT)では、タスク固有の情報とインスタンス依存の情報の両方でプロンプトを強化し、さまざまなNLPタスク全体でパフォーマンスの大幅な向上を達成します。[4]
  4. 計算オーバーヘッドの削減:最近の進歩により、few-shotプロンプティングはより効率的になりました。例えば、Lewis Tunstall氏らは、Sentence Transformersのfew-shotファイン・チューニングのための効率的なフレームワークであるSetFitを導入しました。これは、既存の方法と比較して大幅に少ないパラメーターと短縮されたトレーニング時間で高い精度を実現します。[5]

制限

  1. プロンプトの品質への依存:プロンプトの品質とデザインは、few-shotプロンプティングのパフォーマンスに大きな影響を与えます。効果的なプロンプトを作成するには、慎重なエンジニアリングとドメインの専門知識が必要であることが多いです。著者のTimo Schick氏と共同研究者は、プロンプトの品質によるパフォーマンスのばらつきを強調し、信頼できる成果を達成するために複数のプロンプトをインテリジェントに処理する必要性を強調しました。[6]
  2. 計算の複雑さ:few-shotプロンプティングで使用される大規模言語モデルには、相当の計算リソースが必要です。これは多くの組織にとって障壁となり、これらのモデルのアクセスが制限される可能性があります。Morteza Bahrami氏らは、膨大な数のパラメーターを持つモデルには強力なハードウェアが必要であり、これが普及の制約になり得ると指摘しています。[1]
  3. 一般化の課題:多様なタスクやデータセットにわたってプロンプトを一般化することは、依然として大きな課題です。few-shotプロンプティングは特定のタスクではうまく実行できますが、さまざまなアプリケーション間で一貫したパフォーマンスを確保するには、高度なテクニックが必要です。例えば、Feihu Jin氏と共同執筆者によって行われた研究では、大量のトレーニングデータを活用してプロンプトベースの学習における一般化を改善することで、数値推論におけるこの問題に対処しました。[4]
  4. 制限されたzero-shot機能:few-shotプロンプティングは最小限のサンプルでは優れていますが、zero-shot設定でのパフォーマンスの信頼性が低くなる可能性があります。NERの進歩に関する研究では、プロンプトの堅牢性を強化することでzero-shot機能の制限に対処する、固有表現抽出のためのプロンプトベースの手法であるQaNERが導入されました。[7]

このように、few-shotプロンプティングでは、さまざまなアプリケーションにおいて効率性、柔軟性、パフォーマンスの点で大きなメリットをもたらします。しかし、プロンプトの品質、計算の複雑さ、一般化の課題、制限されたzero-shot機能への依存から、その可能性を最大化するためにさらなる進歩が必要な領域が浮き彫りになっています。

プロンプトの先を考え、コンテキスト全体を把握する

Thinkニュースレターで業界ニュース、AIツール、プロンプト・エンジニアリングの最新トレンドを先取りしましょう。さらに、メールに直接お届けする新しい解説、チュートリアル、専門家の洞察にアクセスできます。IBMプライバシー・ステートメントをご覧ください。

購読ありがとうございます。登録が完了しました。

ユースケース

few-shotプロンプティングは、大規模言語モデルの強みを活用して、限られたサンプルで複雑なタスクを実行するために、さまざまなアプリケーションにわたって多数のサンプルを備えた汎用的で強力なツールであることが証明されています。これは、コンテンツ作成やコンテキスト内学習などのクリエイティブな生成AIのユースケースで人気があります。ここでは、いくつかの注目すべきユースケースを詳細に説明します。

センチメント分析
few-shotプロンプティングは、モデルが、限られたラベル付きデータを使用してテキストの感情を分類するセンチメント分析で特に役立ちます。図2に示すように、few-shotプロンプティングとセマンティック・マッチングとの統合は一例です。これにより、モデルはベクトル・ストアからの関連するサンプルに基づいて感情を正確に分類できるようになります。[1]

動画におけるアクション認識
few-shotプロンプティングは、動画内のアクション認識にも適用されています。Yuheng Shi氏らは知識プロンプティングを導入し、外部リソースからの常識的な知識を活用してビジョン言語モデルをプロンプト化することができました。この方法では、最小限の監督で動画内のアクションを効果的に分類し、トレーニングのオーバーヘッドを大幅に削減しながら最先端のパフォーマンスを達成します。[8]

基盤を持つダイアログの生成
基盤となるダイアログの生成やチャットボットでは、few-shotプロンプティングで外部の情報ソースを統合することで対話モデルを強化できます。この研究では、few-shotプロンプティングによって対話モデルのパフォーマンスが大幅に向上し、より一貫性があり、文脈に沿ったものになることが実証されました。[9]

Named Entity Recognition(NER)
few-shotプロンプティングでは、モデルがテキスト内のエンティティーを認識して分類するのに役立つサンプルを提供することで、固有表現抽出タスクを強化できます。以下の引用された研究の著者は、エンティティー認識プロンプトベースのfew-shot学習方法を開発しました。これはNERのタスクにも適用でき、モデルのパフォーマンスを大幅に向上させます。[10]

コード生成タスク
few-shotプロンプティングは、テスト・アサーションの生成やプログラムの修復などのコード関連のタスクにも適用できます。この研究では、Noor Nashid氏らはコード・デモンストレーションを自動的に検索して効果的なプロンプトを作成する技術を開発し、タスクの精度が大幅に向上したことを示しています。[11]

これらのユースケースでは、さまざまな分野やタスクにわたるfew-shotプロンプティングの幅広い適用可能性と有効性を示し、AIおよびアプリケーションのイノベーションと効率を促進する可能性を示しています。

few-shotプロンプティングは、AIとNLPの大幅な進歩を表しており、限られたサンプルで効率性、柔軟性、パフォーマンスの向上を実現しています。テクノロジーが進化するにつれて、さまざまなアプリケーションで重要な役割を果たし、複数の分野でイノベーションと効率性を推進するでしょう。

AI Academy

AIの専門家になる

ビジネスの成長を促進するAIへの投資を優先できるように知識を習得します。今すぐ無料のAI Academyを試して、貴社のAIの未来をリードしましょう。

関連ソリューション
IBM watsonx.ai

AI開発者向けの次世代エンタープライズ・スタジオであるIBM watsonx.aiを使用して、生成AI、基盤モデル、機械学習機能をトレーニング、検証、チューニング、導入しましょう。わずかなデータとわずかな時間でAIアプリケーションを構築できます。

watsonx.aiの詳細はこちら
人工知能ソリューション

IBMの業界をリードするAIの専門知識とソリューションのポートフォリオを活用して、AIをビジネスの業務に利用しましょう。

AIソリューションの詳細はこちら
人工知能(AI)コンサルティングおよびサービス

IBMコンサルティングAIサービスは、企業がAIをトランスフォーメーションに活用する方法を再考するのに役立ちます。

AIサービスの詳細はこちら
次のステップ

AIを使用することで、IBM Concertはお客様のオペレーションに関する重要な洞察を明らかにし、改善のためのアプリケーション固有の推奨事項を提供します。Concertがどのようにビジネスを前進させることができるかをご覧ください。

Concertの詳細はこちら ビジネス・プロセス自動化ソリューションの詳細はこちら
脚注
  1. Morteza Bahrami, M. M. (14 Feb 2023). Few-shot Learning with Prompting Methods. 6th International Conference on Pattern Recognition and Image Analysis (IPRIA), 1-5. https://ieeexplore.ieee.org/document/10147172.
  2. Robert L Logan IV, I. B. (24 Jun 2021). Cutting Down on Prompts and Parameters: Simple Few-Shot Learning with Language Models. 2824-2835. https://aclanthology.org/2022.findings-acl.222/.
  3. Chengyu Wang, J. W. (2021). TransPrompt: Towards an Automatic Transferable Prompting Framework for Few-shot Text Classification. 2792-2802. https://aclanthology.org/2021.emnlp-main.221/.
  4. Feihu Jin, J. L. (4 June 2023). Unified Prompt Learning Makes Pre-Trained Language Models Better Few-Shot Learners. ICASSP 2023 - 2023 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 1-5. https://ieeexplore.ieee.org/document/10095738.
  5. Lewis Tunstall, N. R. (22 Sept 2022). Efficient Few-Shot Learning Without Prompts. https://arxiv.org/abs/2209.11055.
  6. Timo Schick, H. S. (2021). Exploiting Cloze-Questions for Few-Shot Text Classification and Natural Language Inference. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pages 255–269, Online. Association for Computational Linguistics.
  7. Andy T. Liu, W. X.-W. (3 Mar 2022). QaNER: Prompting Question Answering Models for Few-shot Named Entity Recognition. https://arxiv.org/abs/2203.01543.
  8. Yuheng Shi, X. W. (22 Nov 2022). Knowledge Prompting for Few-shot Action Recognitionhttps://doi.org/10.48550/arXiv.2211.12030.
  9. Chujie Zheng, M. H. (14 Sept 2021). Exploring Prompt-based Few-shot Learning for Grounded Dialog Generation. https://arxiv.org/abs/2109.06513.
  10. Yi Chen, X. S. (26 May 2023). Few-shot Question Answering with Entity-Aware Prompt. Proceedings of the 2023 4th International Conference on Computing, Networks and Internet of Things. https://dl.acm.org/doi/10.1145/3603781.3603812.
  11. Noor Nashid, M. S. (1 May 2023). Retrieval-Based Prompt Selection for Code-Related Few-Shot Learning. IEEE/ACM 45th International Conference on Software Engineering (ICSE), 2450-2462. https://ieeexplore.ieee.org/document/10172590.