重要说明:
IBM Cloud Pak® for Data 4.8 版本将于 2025 年 7 月 31 日结束支持(EOS)。 欲了解更多信息,请参阅 IBM Cloud Pak for Data 版本 4.X 的停止服务公告。
在 版本支持结束之前,升级到 版本。 IBM Cloud Pak for Data 4.8 IBM Software Hub 5.1 有关更多信息,请参阅从 IBM Cloud Pak for Data 版本 4.8 升级到 IBM Software Hub 版本 5.1。
Python 脚本的批量部署输入详细信息
指定 Python 脚本的批处理部署的输入详细信息时,请遵循以下规则。
数据类型摘要表:
| 数据 | 描述 |
|---|---|
| 类型 | 数据引用 |
| 文件格式 | 所有 |
数据源
输入或输出数据引用:
- 空间中的本地资产或受管资产
- 已连接 (远程) 资产: Cloud Object Storage 和存储卷
注:
- 对于类型为 Cloud Object Storage 或 Cloud Object Storage (基础设施) ,必须配置访问密钥和保密密钥 ,也称为 HMAC 凭证。
如果要以编程方式指定输入/输出数据引用:
- 数据源引用
type取决于资产类型。 有关更多信息,请参阅 向部署空间添加数据资产中的 数据源引用类型 部分。 - 您可以将运行 Python Script 所需的环境变量指定为
scoring.environment_variables中的'key': 'value'对。key必须是环境变量的名称,而value必须是环境变量的相应值。 - 部署作业的有效内容将作为 JSON 文件保存在运行 Python 脚本的部署容器中。 Python 脚本可以访问使用
JOBS_PAYLOAD_FILE环境变量的 JSON 文件的完整路径文件名。 - 如果将输入数据作为本地或受管数据资产进行引用,那么部署服务会下载输入数据并将其放置在运行 Python 脚本的部署容器中。 您可以通过
BATCH_INPUT_DIR环境变量访问下载的输入数据的位置 (路径)。 - 对于输入数据引用 (数据资产或连接资产) ,必须由 Python 脚本处理数据下载。 如果已连接的数据资产或连接资产存在于部署作业有效内容中,那么您可以使用
JOBS_PAYLOAD_FILE环境变量来访问该数据资产,该环境变量包含保存为 JSON 文件的部署作业有效内容的完整路径。 - 如果输出数据必须以本地或受管数据资产的形式持久存储在空间中,您可以在
scoring.output_data_reference.location.name中指定要创建的资产名称。 作为 Python 脚本的一部分,可以将输出数据放在BATCH_OUTPUT_DIR环境变量指定的路径中。 部署服务将数据压缩为压缩文件格式,并将其上载到BATCH_OUTPUT_DIR中指定的位置。 - 这些环境变量是在内部设置的。 如果尝试手动设置这些值,那么将覆盖您的值:
BATCH_INPUT_DIRBATCH_OUTPUT_DIRJOBS_PAYLOAD_FILE
- 如果必须将输出数据保存在远程数据存储器中,那么必须在
output_data_reference.location.href中指定输出数据引用 (例如,数据资产或已连接的数据资产) 的引用。 Python 脚本必须负责将输出数据上载到远程数据源。 如果已连接的数据资产或连接资产引用存在于部署作业有效内容中,那么您可以使用JOBS_PAYLOAD_FILE环境变量来访问该数据资产,该环境变量包含保存为 JSON 文件的部署作业有效内容的完整路径。 - 如果 Python 脚本不需要在部署作业有效内容中指定任何输入或输出数据引用,那么请勿在有效内容中提供
scoring.input_data_references和scoring.output_data_references对象。
了解更多
在 Watson Machine Learning中部署脚本。
父主题: 批处理部署输入详细信息 (按框架排列)