OpenAI

OpenAI GPT-3.5、 などのモデルは、テキストとコードの膨大なデータセットで学習される変換器ベースのニューラルネットワークである。 GPT-4 OpenAI モデルを使用すると、汎用性の高い自然言語を理解し、生成することができます。 このモデルは、文脈認識とパターン認識のためのディープラーニング技術を活用し、テキスト補完、翻訳、会話AIなどのタスクを促進する。 開発者が高度なAI機能をさまざまなアプリケーションに統合するための柔軟なプラットフォームを提供するAPIを使用して、これらのモデルにアクセスすることができます。

計装 OpenAI アプリケーション

OpenAI アプリケーションを計測するには、以下の手順を実行します:

あなたの環境がすべての前提条件を満たしていることを確認してください。 詳しくは、 前提条件を参照。

  1. OpeanAI, の依存関係をインストールするには、以下のコマンドを実行する:

    pip3 install openai==1.58.1
    
  2. 以下の認証情報をエクスポートして、サンプル・アプリケーションで使用されている OpenAI モデルにアクセスします。

    export OPENAI_API_KEY=<openai-api-key>
    

    OpenAI APIにアクセスするためのAPIキーを作成するか、既存のキーを使用するには、以下を参照してください。 OpenAI.

  3. 以下のコードを実行して、 OpenAI サンプル・アプリケーションを生成してください:

    import os, time, random
    from openai import OpenAI
    from traceloop.sdk import Traceloop
    from traceloop.sdk.decorators import workflow
    
    client = OpenAI(api_key=os.getenv("OPENAI_API_KEY"))
    
    Traceloop.init(app_name="openai_chat_service", disable_batch=True)
    
    @workflow(name="streaming_ask")
    def ask_workflow():
        models = [ "gpt-3.5-turbo", "gpt-4-turbo-preview" ]
        mod = random.choice(models)
        questions = [ "What is AIOps?", "What is GitOps?" ]
        question = random.choice(questions)
        stream = client.chat.completions.create(
            model=mod,
            messages=[{"role": "user", "content": question}],
            stream=True,
        )
        for part in stream:
            print(part.choices[0].delta.content or "", end="")
    
    for i in range(10):
        ask_workflow()
        time.sleep(3)
    
  4. 以下のコマンドを実行してアプリケーションを実行する:

    python3 ./<openai-sample-application>.py
    

モニタリングを設定すると、Instana はサンプル アプリケーションから次のトレースとメトリックを収集します:

LLMから収集されたトレースを表示するには、 トレースを表示するためのアプリケーションパースペクティブの作成を参照してください。

LLMから収集されたメトリクスを表示するには、 View metricsを参照してください。

LLMセキュリティの追加

個人を特定できる情報(PII)がLLMに公開されると、契約上の義務違反やデータ漏洩、データ侵害の可能性が高まるなど、深刻なセキュリティやプライバシーのリスクにつながりかねない。 詳細は LLMのセキュリティを参照。