watsonx.ai 支持的嵌入模型
使用部署在 IBM watsonx.ai 中的嵌入模型来帮助执行语义搜索和文档比较任务。
嵌入模型是仅编码器的基础模型,用于创建文本嵌入。 文本嵌入对称为 向量的数字数组中的句子或段落的含义进行编码。 有关更多信息,请参阅 文本嵌入生成。
watsonx.ai:
有关生成基础模型的更多信息,请参阅 支持的基础模型。
要了解哪些嵌入模型可供使用,请使用列出可用的基础模型方法watsonx.ai API。 指定filters=function_embedding参数仅返回可用的嵌入模型。
curl -X GET \
'https://{cluster_url}/ml/v1/foundation_model_specs?version=2024-07-25&filters=function_embedding'
IBM 嵌入模型
下表列出了 IBM 提供的受支持嵌入模型。
| 模型名称 | API 模型标识 | 最大输入令牌数 | 维度数 | 更多信息 |
|---|---|---|---|---|
| slate-125m-english-rtrvr | ibm/slate-125m-english-rtrvr |
512 | 768 | 模型卡 |
| slate-30m-english-rtrvr | ibm/slate-30m-english-rtrvr |
512 | 384 | 模型卡 |
第三方嵌入模型
下表列出了支持的第三方嵌入模式。
| 模型名称 | API 模型标识 | 提供者 | 最大输入令牌数 | 维度数 | 更多信息 |
|---|---|---|---|---|---|
| all-minilm-l6-v2 | sentence-transformers/all-minilm-l6-v2 | 开源自然语言处理(NLP)和计算机视觉(CV)社区 | 256 | 384 | - 模型卡 |
| multilingual-e5-large | intfloat/multilingual-e5-large | Microsoft | 512 | 1024 | - 模型卡 - 研究论文 |
嵌入模型详细信息
您可以使用 watsonx.ai Python 库或 REST API 向其中一个受支持的嵌入模型提交句子或段落。
all-minilm-l6-v2
该模型是在 5.0.3 版本中引入的
all-minilm-l6-v2 嵌入模型由开源自然语言处理(NLP)和计算机视觉(CV)社区构建,由 Hugging Face 提供。 将该模型用作句子和短文段编码器。 给定输入文本后,它会生成一个向量来捕捉文本中的语义信息。
用途:将 all-minilm-l6-v2 嵌入模型生成的句子向量用于信息检索、聚类和句子相似性检测等任务。
维数: 384
输入令牌限制:256
支持的自然语言: 英语
微调信息:该嵌入模型是微软公司预训练的MiniLM-L6-H384-uncased模型的一个版本,在包含 10 亿个句子对的数据集上进行了微调。
模型体系结构: 仅编码器
许可证: Apache 2.0 许可证
了解更多信息
multilingual-e5-large
该模型是在 5.0.3 版本中引入的
multilingual-e5-large 嵌入模型由微软建立,由 Hugging Face 提供。
嵌入模型结构有 24 层,按顺序用于处理数据。
用途:用于要为非英语语言文本生成文本嵌入的用例。 在向模型提交输入时,请遵循以下指导原则:
- 分别以
query:和passage:作为输入前缀,用于通道或信息检索等任务。 - 为输入文本添加
query:前缀,用于语义相似性、咬文嚼字挖掘和转述检索等任务。 - 如果要使用嵌入式作为特征,如线性探测分类或聚类,请在输入文本前加上
query:字样。
尺寸数: 1024
输入令牌限制: 512
支持的自然语言:多达 100 种语言。 详见型号卡。
微调信息:该嵌入模型是XLM-RoBERTa模型的一个版本,后者是RoBERTa的一个多语种版本,在2.5TB 的过滤 CommonCrawl 数据进行预训练。 该嵌入模型在多语言数据集的混合物上进行了持续训练。
模型体系结构: 仅编码器
许可证: 微软开放源代码行为准则
了解更多信息
slate-125m-english-rtrvr
此模型已更新至 2.0.1 版本
slate-125m-english-rtrvr 基础模型由 IBM提供。 该模型可为查询、段落或文档等各种输入生成嵌入。
训练目标是最大化查询和段落之间的余弦相似性。 此过程生成两个句子嵌入,一个表示问题,另一个表示段落,允许通过余弦相似性对这两个句子进行比较。
使用:速度慢两到三倍,但性能略优于IBM石板30m嵌入模型。
维数: 768
输入令牌限制: 512
支持的自然语言: 英语
微调信息: 对模型的此版本进行了微调,以更好地执行基于语句检索的任务。
模型体系结构: 仅编码器
许可证: 使用条款
了解更多信息
slate-30m-english-rtrvr
此模型已更新至 2.0.1 版本
slate-30m-english-rtrvr 基础模型是 slate-125m-english-rtrvr 的精简版,由 IBM 提供。 IBM石板嵌入模型的训练目的是使两个文本输入之间的余弦相似度最大化,以便稍后根据相似度对嵌入进行评估。
嵌入模型体系结构具有 6 层,这些层按顺序用于处理数据。
用途:速度比 IBM Slate 125m 嵌入模型快两到三倍,性能得分略低。
维数: 384
输入令牌限制: 512
支持的自然语言: 英语
微调信息: 对模型的此版本进行了微调,以更好地执行基于语句检索的任务。
模型体系结构: 仅编码器
许可证: 使用条款
了解更多信息
父主题: 文本嵌入生成