Python 库
您可以使用 Python 库以编程方式在 IBM watsonx.ai 中推断和调整基础模型。
请参见 The ibm-watsonx-ai Python 库。
您还可以从第三方工具使用 watsonx.ai 基础模型,包括:
从可用的样本 Notebook 中学习
样本 Notebook 可供您在创建自己的 Notebook 以执行常见任务 (例如,推断或调整基础模型) 时用作指南。
请参阅 Python 样本 Notebook GitHub 存储库。
从 IDE 使用 Python 库
ibm-watsonx-ai Python 库在 PyPI 上可从以下 URL 获取: https://pypi.org/project/ibm-watsonx-ai/。
您可以使用以下命令在集成开发环境中安装 ibm-watsonx-ai Python 库:
pip install ibm-watsonx-ai
如果已安装库,请包含 -U 参数以获取任何更新并使用最新版本的库。
pip install -U ibm-watsonx-ai
要通过使用 Python 库来管理使用 AI 模型所需的任何必备软件包,可以使用 wx_ai_samples_conda_env_RT24_1.yml 文件在用于编码的集成开发环境中设置 conda 环境。
有关使用 conda 配置文件来设置虚拟环境的更多信息,请参阅开发工具的文档。
使用 Python 库中的 watsonx.ai 轻量级引擎
你可以使用 Python 库来处理从 watsonx.ai 轻量级引擎部署的基础模型。
当您使用 watsonx.ai 轻量级引擎中的库时,您无需将 project_id 或 space_id 值传递给 Credentials 对象。 相反,您需要初始化 APIClient 对象,并使用 APIClient 对象进行身份验证。
例如,下面的代码展示了如何在使用完整安装的基础模型的 API 请求中指定凭证:
embedding = Embeddings(
model_id=EmbeddingTypes.IBM_SLATE_30M_ENG,
params=embed_params,
credentials=Credentials(
url="URL",
username="user",
password="***",
instance_id="openshift",
version="5.0",
),
project_id="*****",
)
下面的代码展示了如何对使用 watsonx.ai 轻量级引擎的基础模型的请求进行身份验证:
client = APIClient(
credentials=Credentials(
url="URL",
username="user",
password="***",
instance_id="openshift",
version="5.0",
)
)
embeddings = Embeddings(model_id=EmbeddingTypes.IBM_SLATE_30M_ENG, api_client=client)
从笔记本使用 LangChain
LangChain 是一个框架,开发者可以使用此框架来创建包含大型语言模型的应用程序。 当您想要将两个或多个函数链接在一起时, LangChain 可能很有用。 例如,可以使用 LangChain 作为检索增强生成 (RAG) 任务的一部分。
有关更多信息,请参阅 LLMs > IBM watsonx.ai
使用其中一个利用 LangChain 的样本 RAG Notebook 来了解更多信息。 请参阅 RAG 示例。
从 Notebook 使用 LlamaIndex 函数
LlamaIndex 是用于构建大型语言模型应用程序的框架。 您可以在使用 watsonx.ai 基础模型构建的应用程序中利用 LlamaIndex, 提供的功能,如 text-to-SQL 或 Pandas DataFrames 功能。
有关更多信息,请参阅 LLMs> IBM watsonx.ai。
您可以从 watsonx.ai中的 Notebook 使用 LlamaIndex 函数。
先决条件
要开始使用 Python 库,首先需要凭证和项目标识或部署标识。 有关更多信息,请参阅以下主题:
了解更多
父主题: 编码生成 AI 解决方案