IBM Cloud Pak® for Data La versión 4.7 alcanzará el fin de soporte (EOS) el 31 de julio de 2025. Para más información, consulte el anuncio de interrupción del servicio para la versión IBM Cloud Pak for Data 4.X.
Actualice a IBM Software Hub Versión 5.1 antes de que IBM Cloud Pak for Data Versión 4.7 alcance el fin de soporte. Para más información, consulte Actualización de IBM Software Hub en la documentación de la versión IBM Software Hub 5.1.
Capacidades en Linux on IBM Z y IBM LinuxONE
Cuando se instala Cloud Pak for Data en las plataformas IBM Z e IBM LinuxONE , los usuarios de Watson Studio y Watson Machine Learning pueden crear, entrenar y desplegar modelos de aprendizaje automático.
Las capacidades descritas para Watson Studio son distintas de una solución independiente denominada IBM Watson Machine Learning for z/OS ( WML para z/OS o WMLz). Watson Machine Learning for z/OS es una solución empresarial de aprendizaje automático que se ejecuta en IBM Z y Red Hat OpenShift Container Platform (OCP). Puede utilizar WML para z/OS como solución independiente o integrarla en la capacidad de IA de su empresa como plataforma escalable. Si desea más información, consulte WML para z/OS.
Revise lo siguiente para Cloud Pak for Data instalado en plataformas IBM Z o IBM LinuxONE :
- Prestaciones
- Infraestructuras soportadas
- Almacenamiento soportado
- Restricciones
- Utilización de un cuaderno generado por AutoAI fuera de Cloud Pak for Data
Prestaciones
Utilizando los servicios Watson Studio, Watson Machine Learning y Analytics Engine powered by Apache Spark, los usuarios de Linux on IBM Z y LinuxONE pueden hacer lo siguiente:
Utilice la función de inyección de especificación de recursos (RSI) de Cloud Pak for Data para aplicar parches directamente a los pods asociados a implementaciones de Kubernetes, conjuntos de réplicas de StatefulSets,, controladores de réplicas, trabajos y cronjobs.
Descubra, limpie y transforme de forma interactiva los datos utilizando Data Refinery.
Cree proyectos para organizar activos como, por ejemplo, datos, entornos y cuadernos.
Utilice los datos que se cargan en un proyecto, o conéctese a los datos remotos.
Cree y entrene modelos de aprendizaje automático, o codifique funciones o scripts Python utilizando cuadernos Jupyter o Jupyter Lab.
Entrene modelos predictivos utilizando AutoAI, una herramienta gráfica en Watson Studio que analiza sus datos y utiliza algoritmos de datos, transformaciones y ajustes de parámetros para crear el mejor modelo predictivo. AutoAI muestra varios modelos potenciales como interconexiones candidatas de modelo y los clasifica en un marcador para que los revise. Guarde un conducto como un activo de modelo que pueda desplegar.
Cree espacios de despliegue para organizar los recursos para desplegar modelos y ejecutar funciones y scripts Python .
Cree trabajos para ejecutar cuadernos o despliegues.
Evalúe los despliegues utilizando Watson OpenScale.
Cree tiempos de ejecución de Python 3.9 en Watson Studio.
Cree y ejecute aplicaciones Spark en una instancia de Analytics Engine powered by Apache Spark en Cloud Pak for Data. Las versiones de Spark y de idioma soportadas incluyen:
- Spark 3.3 & Python 3.9
- Spark 3.2 & Python 3.9 (Las aplicaciones Spark con Spark 3.2 han quedado en desuso. Elija una aplicación Spark con Spark 3.3 en su lugar.)
- Spark 3.3 & Python 3.10
Para ejecutar trabajos Spark, consulte Iniciación a las aplicaciones Spark.
Aprovechamiento del acelerador de IA en chip IBM z16 en IBM Z y IBM LinuxONE:
- Soporte para SnapML 1.9 y superior
- Soporte para Tensorflow 2.7.2 y superior (vista previa técnica)
La copia de seguridad y la restauración son compatibles con Cloud Pak for Data en Linux on IBM Z y LinuxONE.
Infraestructuras soportadas
Cree activos utilizando estas populares infraestructuras de aprendizaje automático y software.
Python 3.9 tiempos de ejecución (runtime-22.1-py3.9) con estas infraestructuras:
- scikit-learn 1.0.2
- xgboost 1.5.2
- snapml 1.13.1
- tensorflow 2.7.2
- pytorch 1.10.2
- Opencv, visión antorcha
Python 3.9 tiempos de ejecución ( runtime_22.1-py3.9-nnpa ) con IBM z16 capacidades de acelerador de IA en chip en IBM Z y IBM LinuxONE:
snapml 1.13.1
tensorflow 2.7.2 (vista previa técnica)
runtime_22.1-py3.9-nnpa también da soporte a estas infraestructuras:
- scikit-learn 1.0.2
- xgboost 1.5.2
- pytorch 1.10.2
- Opencv, visión antorcha
Tiempos de ejecución de Python 3.10 (runtime-22.2-py3.10) con estas infraestructuras:
- scikit-learn 1.1.1
- xgboost 1.6.2
- snapml 1.11.1
- tensorflow 2.9.3
- pytorch 1.12.1
- Opencv, torchvision y lightgbm
- AutoAI 0.1
Notas de infraestructura:
- Snap ML 1.11.1 presenta Graph Feature Preprocessor, un preprocesador compatible con Scikit-learn que permite una extracción de características escalable y en tiempo real a partir de datos estructurados en gráficos. El preprocesador de característica de gráfico puede generar un conjunto muy rico de características de borde analizando la topología de gráfico y extrayendo subestructuras significativas. Estas características adicionales pueden aumentar significativamente el poder predictivo de los modelos de aprendizaje automático en entornos prácticos, como cuando se supervisan transacciones sospechosas y actividades de cuentas para el blanqueo de dinero.
- Este release no da soporte a las especificaciones de software rt23_1 para IBM Z e IBM LinuxONE. Para más detalles, consulte Infraestructuras soportadas
Almacenamiento soportado
Para los clústeres instalados en Linux on IBM Z y LinuxONE,, estas soluciones de almacenamiento son compatibles:
- Openshift Container Storage (OCS) y OpenShift Container Platform versión 4.9 o posterior, o Openshift Data Foundation (ODF). Requiere OpenShift Container Platform versión 4.8 o posterior.
- Network File System (NFS)
- IBM Storage Scale Container Native
Restricciones para los usuarios de Linux on IBM Z y LinuxONE
Cuando se instala Cloud Pak for Data en las plataformas Linux on IBM Z y LinuxONE, los usuarios de Watson Studio y Watson Machine Learning no podrán utilizar, ejecutar ni desplegar los siguientes tipos de activos:
- Activos formados mediante RStudio, como aplicaciones RShiny o activos basados en el framework R
- Activos basados en estos tiempos de ejecución: Spark, Python 3.7 o ONNX 1.8.1
- Activos de Deep Learning creados con versiones en desuso o en desuso de infraestructuras; por ejemplo, activos creados con infraestructuras TensorFlow 2.4 o PyTorch 1.7
Limitaciones:
- Al intentar utilizar, entrenar o desplegar recursos no compatibles en Cloud Pak for Data en una plataforma Linux on IBM Z o LinuxONE, se producirá un error.
- En un clúster de Cloud Pak for Data actualizado donde la versión del release es 4.7.0 después de la actualización y el tiempo de ejecución del cuaderno Jupyter es "Runtime 22.1 en Python 3.9", el valor soportado más alto para
versionproporcionado en el objetowml_credentialpara la autenticación utilizando el cliente python Watson Machine Learning es 4.5. Para utilizar la versión más reciente del release, actualice Runtime 22.1 en Python 3.9. - La copia de seguridad y la restauración son compatibles con Cloud Pak for Data en Linux on IBM Z y LinuxONE. Sin embargo, actualmente los comandos de
cpd-cli oadpdeben ejecutarse desde una máquina x86_64. - La copia de seguridad de volumen fuera de línea no está soportada para IBM z y LinuxONE. Esta característica está en desuso y se eliminará en un futuro release.
cpdbr-agentno es compatible con Linux on IBM Z y IBM LinuxONE.- Con los tiempos de ejecución predeterminados, es posible que los modelos entrenados en otras plataformas e implantados en Linux on IBM Z y Linux ONE no funcionen como se espera. Una posible solución es desplegar el modelo en un tiempo de ejecución personalizado de Python.
- El formato de entrada de ORC (Optimized Row Columnar) no está soportado para evaluar despliegues por lotes utilizando Watson OpenScale.
- El formato de datos de archivo Parquet no está soportado como entrada para un experimento de serie temporal de AutoAI .
- No se admite el procesamiento por lotes en Watson OpenScale utilizando IBM Analytics Engine con la clase de almacenamiento OpenShift Data Foundation (ODF). En su lugar, utilice NFS.
- La ejecución del código generado para añadir datos desde una conexión en IBM Z puede provocar un error de kernel.
Utilización de un cuaderno generado por AutoAI fuera de Cloud Pak for Data
Para utilizar un cuaderno generado por AutoAI fuera de Cloud Pak for Data, utilice estos pasos para instalar los paquetes necesarios para Linux en zSystem.
Instala Conda en el sistema operativo zLinux.
Prepare las dependencias de instalación del paquete
pyarrow 8.0.0Python con Open-CE.Nota: Este paquete no está disponible en el canal conda zLinux .Cree un entorno conda.
Nota:Este ejemplo utiliza
/optcomo directorio de trabajo para el canal conda local.cd /opt conda create -y -n pyarrow-env conda activate pyarrow-env conda install -y conda-build conda install -y -c open-ce open-ce-builder python=3.10Cree un clon Git del proyecto Open-CE y extraiga el release en la rama
open-ce-r1.7.git clone -b open-ce-r1.7 https://github.com/open-ce/open-ce.gitInstale un paquete de parches con el mandato siguiente:
yum install patchVaya al proyecto Open-CE y cree las dependencias de pyarrow.
cd open-ce open-ce build env --python_versions 3.10 --build_types cpu envs/arrow-env.yamlCompruebe la carpeta condabuild para encontrar las dependencias de pyarrow
ls -1 condabuild/ channeldata.json index.html linux-s390x noarch opence-conda-env-py3.10-cpu-openmpi.yaml ************************************************** ls -1 condabuild/linux-s390x/ abseil-cpp-20210324.2-he499f12_0.conda arrow-cpp-8.0.0-py310h63c5c10_2_cpu.conda arrow-cpp-proc-8.0.0-cpu.conda boost-cpp-1.65.1-hebff1d6_4.conda current_repodata.json current_repodata.json.bz2 gflags-2.2.2-heb72281_0.conda glog-0.5.0-he499f12_0.conda grpc-cpp-1.41.0-hae1bb83_pb3.19_4.conda index.html libboost-1.65.1-h896dd0f_4.conda libevent-2.1.10-h8df5d65_2.conda libthrift-0.13.0-h333d347_6.conda libutf8proc-2.6.1-h63165b7_0.conda orc-1.7.4-hb4085e4_1.conda pyarrow-8.0.0-py310he9dcaf6_2_cpu.conda rapidjson-1.1.0-h4cc523a_0.conda re2-2020.11.01-hcac3278_0.conda repodata_from_packages.json repodata_from_packages.json.bz2 repodata.json repodata.json.bz2 thrift-compiler-0.13.0-h333d347_6.conda thrift-cpp-0.13.0-6.condaDesactive el entorno virtual conda pyarrow-env y vuelva al directorio /opt .
Prepare las dependencias de instalación del paquete Tensorflow Python con Open-CE.
Nota: Este paquete no está disponible en el canal conda zLinux .- Cree un entorno conda.
cd /opt conda create -y -n tensorflow-env conda activate tensorflow-env conda install -y conda-build conda install -y -c open-ce open-ce-builder python=3.10 - Vaya al proyecto Open-CE y cree las dependencias Tensorflow .
cd /opt/open-ce open-ce build env --python_versions 3.10 --build_types cpu envs/tensorflow-env.yaml - Compruebe la carpeta condabuild para encontrar las dependencias tensorflow-cpu.
ls -1 condabuild/ channeldata.json icons index.html linux-s390x noarch opence-conda-env-py3.10-cpu-openmpi.yaml ****************************************************** ls -1 condabuild/linux-s390x/ bazel-5.1.1-h447df78_2.conda clang-14.0.6-0.conda clang-14-14.0.6-default_hc034eec_0.conda clangdev-14.0.6-default_hc034eec_0.conda clang-format-14.0.6-default_hc034eec_0.conda clang-format-14-14.0.6-default_hc034eec_0.conda clang-tools-14.0.6-default_hc034eec_0.conda clangxx-14.0.6-default_h050e89a_0.conda current_repodata.json current_repodata.json.bz2 dm-tree-0.1.5-py310h17e39e8_5.conda flatbuffers-2.0.0-he499f12_0.conda googleapis-common-protos-1.52.0-py310hb7eb58e_0.conda googleapis-common-protos-grpc-1.52.0-h785a63c_0.conda h5py-3.6.0-py310ha7896db_0.conda index.html libclang13-14.0.6-default_h99f1993_0.conda libclang-14.0.6-default_hc034eec_0.conda libclang-cpp-14.0.6-default_hc034eec_0.conda libclang-cpp14-14.0.6-default_hc034eec_0.conda libtensorflow-2.9.3-hd9d4759_cpu_pb3.19_4.conda promise-2.3-py310h6d39d64_0.conda pybind11-2.9.2-py310he3a6269_0.conda pybind11-global-2.9.2-py310h0c46cd6_0.conda repodata_from_packages.json repodata_from_packages.json.bz2 repodata.json repodata.json.bz2 scipy-1.8.1-py310h5fdd5b3_0.conda tensorflow-addons-0.17.0-py310h88a663b_2_cpu.conda tensorflow-addons-proc-0.17.0-cpu.conda tensorflow-base-2.9.3-cpu_py310_pb3.19_4.conda tensorflow-cpu-2.9.3-py310_1.conda tensorflow-model-optimization-0.7.3-py310_2.conda tensorflow-probability-0.17.0-py310_3.conda tensorflow_select-1.0-cpu_2.conda tensorflow-text-2.9.0-hf137b60_py310_pb3.19_3.conda
- Cree un entorno conda.
Ejecute el mandato de índice conda en la carpeta condabuild.
conda index condabuildAñada las líneas siguientes en el archivo
~/.condarcpara utilizar la carpetacondabuildcomo canal de conda local.channels: - /opt/open-ce/condabuild - defaultsCompruebe el canal Conda para encontrar el paquete de instalación pyarrow y tensorflow-cpu.
conda search pyarrow conda search tensorflow-cpu Loading channels: done # Name Version Build Channel pyarrow 8.0.0 py310he9dcaf6_2_cpu condabuild (tensorflow) [root@recorder1 open-ce]# conda search tensorflow-cpu Loading channels: done # Name Version Build Channel tensorflow-cpu 2.9.3 py310_1 condabuild (tensorflow) [root@recorder1 open-ce]#Desactive el entorno virtual conda tensorflow-env y vuelva al directorio /opt .
conda deactivate cd /optCree un entorno virtual Conda para la instalación de autoai y actívelo.
conda create -y -n autoai python=3.10 conda activate autoaiCree el archivo requirements.linux-s390x.txt y añádale este paquete:
cython matplotlib pandas>=0.24.2,<1.6 numpy>=1.20.3,<1.24 packaging psutil importlib-metadata coverage urllib3<2 xgboost>=1.5.1,<1.7 typing_extensions pyarrow==8.0.0 scikit-learn>=1.0.2,<=1.1.1 tensorflow-cpu>=2.7.0,<2.10 joblib>=0.11 statsmodels<0.14 dill>=0.3.1.1 networkx>=2.5.1 py4j>=0.10.9,<0.10.10 jpype1>=1.3.0 simplejson==3.17.6 PyWavelets pytz traitlets<6Instale el archivo requirements.linux-s390x.txt .
conda install -y --file requirements.linux-s390x.txtCree el archivo requirements.linux-s390x.pypi.txt y añádale estos paquetes:
gensim==4.1.2 pytest pytest-cov pep8 pytest-pep8 ibm-watson-machine-learning mlxtend>=0.17.0 lale>=0.6.8,<0.8Instale el archivo requirements.linux-s390x.pypi.txt .
pip install -r requirements.linux-s390x.pypi.txtInstale autoai-libs y autoai-ts-libs:
pip install autoai-libs==1.15.2 --no-deps pip install autoai-ts-libs==2.0.13 --no-deps
Más información
Despliegue y gestión de modelos y funciones
Tema principal: Proyectos