安装 Telco Network Cloud Manager - Performance Operator

可以使用 Container Application Software for Enterprises (CASE) 安装程序从 OpenShift® Web 控制台中的 OperatorHub 安装 Telco Network Cloud Manager - Performance 操作程序。

开始之前

  • 确保已完成 安装前任务中的所有步骤。
  • 可以在需要权利密钥的 IBM® 授权注册表 (cp.icr.io) 中访问所有需要的映像。
  • 确保存在可用于为 Telco Network Cloud Manager - Performance创建持久卷声明的 OpenShift Container Platform 存储类。
  • 使用以下命令安装 unzip Red Hat Linux® 实用程序:
    yum install unzip

关于此任务

您可以通过以下任一方式安装 TNCP 目录:
  • OpenShift Container Platform Web 控制台安装 TNCP 操作程序。
  • 创建操作程序实例。

过程

  • OpenShift Container Platform Web 控制台安装操作程序。 请完成下列步骤:
    1. 在导航中,单击 操作程序 > OperatorHub
      确保您在 openshift-marketplace 项目空间中。
    2. OperatorHub 页面,搜索 TNCP ,然后单击 IBM Telco Network Cloud Manager - Performance 磁贴。

    3. 单击 安装
    4. 从 " 安装操作程序 " 页面,提供以下详细信息:
      • 显示了受支持的更新通道,缺省情况下选择了 1.4 。 它指示将自动创建操作程序预订,以在将新版本交付到通道时使操作程序保持最新。
        注: 请确保选择 1.4 通道。
      • 安装方式

        选择是将操作程序安装到集群中的所有名称空间中,还是安装到特定名称空间中。 缺省情况下,会选择 集群上的所有名称空间

      • 已安装的名称空间
        缺省情况下,将选择 openshift-operator 。 如果在 openshift-operator 项目中安装操作程序,那么所有其他项目或名称空间都可以访问该操作程序。
        注: 如果选择了选项 集群上的特定名称空间,那么可以更改名称空间。 IBM Telco Network Cloud Manager - Performance 操作员不支持此选项。
      • 核准策略

        单击 自动 以指示安装必须在没有其他核准的情况下继续。 每当将新版本交付到通道时,都会自动升级操作程序的运行实例。

        如果要查看为操作员生成的 安装计划 ,然后手动核准安装,请单击 手动 。 您必须查看交付到通道的每个新操作员版本的 安装计划 ,然后手动核准升级。

        注: 如果需要,您可以稍后更改核准策略。
    5. 单击 安装 以安装操作程序。

      如果选择了手动核准策略,请复审并核准预订的安装计划。 如果选择了 自动 核准策略,那么不需要执行其他操作。

    6. 等待安装完成,然后单击 在名称空间 openshift-operator 中查看已安装的操作程序

      IBM Telco Network Cloud Manager - Performance 操作程序显示在 " 已安装的操作程序 " 页面上,部署状态为 Succeeded

    7. 项目 列表中选择 openshift-operators 项目。
    8. 验证是否从 OpenShift Container Platform Web 控制台创建了 IBM Telco Network Cloud Manager - Performance 操作程序 Pod。 请完成下列步骤:
      1. 单击 工作负载 > Pod
      2. 项目 列表中选择 openshift-operators 项目。
      3. 验证是否已创建 tncp-operator-<build_signature> Pod。
        您还可以运行以下命令来检查操作程序 Pod 是否正常工作:
        oc get pods -n openshift-operators | grep -i tncp
        tncp-operator-74cbf4b98d-f45zt   1/1     Running   0          102s
  • 创建 Telco Network Cloud Manager - Performance 操作程序实例。 请完成下列步骤:
    1. 将项目更改为先前创建的定制名称空间,即 tncp
    2. 单击 操作程序 > 已安装的操作程序
    3. 单击 提供的 API下的 TNCP
    4. 单击 创建 TNCP
      表单视图 选项卡中,指定以下值:
      注: 这些参数用于创建根据您提供的值应用的定制资源定义。 定制资源定义 (CRD) 文件定义您自己的对象类型,并允许 apiserver 处理整个生命周期。
      • 实例的名称
      • 实例的标签
      • 存储类的名称
        注: 如果使用 Ceph 作为持久存储器,那么将显示值 csi-cephfs
      • 接受许可证。
      • 冗余 部分中,输入以下条目以对 Postgres 服务启用地理冗余:

        集群 字段中提供集群路由。 如果要在主集群上安装 TNCP 实例,请提供到主集群的路径。 如果要在辅助集群上安装 TNCP 实例,请提供到辅助集群的路径。

        集群 字段中提供网络中所有集群的集群路径。 首先在列表中提供主路径,然后可以按您首选项的任意顺序进行其余操作。 在所有集群中保持相同的顺序。

        例如
        Cluster: symmetric-registration-tncp.apps.primarycluster1.example.com
            Clusters:
            - symmetric-registration-tncp.apps.primarycluster1.example.com
            - standby-sync-tncp.apps.secondarycluster2.cp.example.com
        注: 在安装完成后,请确保在 OpenShift Container Platform Web 控制台中创建相同的路径。
        注: 有关更多信息,请参阅:

        启用地理冗余

        创建路径

      • 缩放 部分中,选择 auto 复选框。

        此设置支持根据大小调整表中的值对 Telco Network Cloud Manager - Performance Pod 进行水平自动缩放。 更多信息,请参阅设置 Pod 的水平自动缩放

      • 服务 部分中,提供所有服务的 CPU 限制和内存限制。
      每个服务的缺省值如下所示:
      服务 默认值
      security
      resources:
      cpu: 100m
      memory: 1Gi
      app
      resources:
      cpu: 200m
      memory: 1Gi
      snmp-discovery
      resources:
      cpu: '1'
      memory: 4Gi
      timeseries
      resources:
      cpu: '1'
      memory: 1.5Gi
      
      kafka
      resources:
      cpu: 500m
      memory: 2Gi
      flow-analytics
      resources:
      cpu: 500m
      memory: 1250Mi
      analytics-stream
      resources:
      cpu: '2'
      memory: 6Gi
      postgres-th
      resources:
      cpu: 100m
      memory: 1Gi
      cassandra
      resources:
      cpu: '2'
      memory: 10Gi
      dns-collector
      resources:
      cpu: 200m
      memory: 1Gi
      threshold
      resources:
      cpu: 200m
      memory: 1Gi
      diamond-db
      resources:
      cpu: 800m
      memory: 4Gi
      diamond-db-read
      resources:
      cpu: 800m
      memory: 4Gi
      diamond-db-export
      resources:
      cpu: 800m
      memory: 4Gi
      ping-collector
      resources:
      cpu: 1m
      memory: 1Gi
      zookeeper
      resources:
      cpu: 100m
      memory: 1Gi
      flow-collector
      resources:
      cpu: 500m
      memory: 1250Mi
      
      analytics-batch
      resources:
      cpu: '1'
      memory: 3Gi
      ui
      resources:
      cpu: 200m
      memory: 1Gi
      dashboard
      diamond-db
      resources:
      cpu: 800m
      memory: 4Gi
      postgres
      resources:
      cpu: 500m
      memory: 1Gi
      inventory
      resources:
      cpu: 500m
      memory: 1Gi
      file-collector
      resources:
      cpu: 1500m
      memory: 4Gi
      
      snmp-collector
      resources:
      cpu: '1'
      memory: 1Gi
      nifi
      resources:
      cpu: '1'
      memory: 2Gi
      
      pack-service
      resources:
               cpu: '2'
               memory: 4Gi
      注: 仅当要更改任何服务的缺省值以提高性能时,才会更新这些值。 否则,缺省值适用。
    5. 单击创建

      验证是否已创建实例。

    6. 验证所有 Pod , Stateful 服务是否已启动。 确保您在 tncp 项目中。

      单击工作负载 > Pod

      单击工作负载 > 状态服务

    7. 验证 Telco Network Cloud Manager - Performance Pod 是否已启动。 确保仪表板 Pod 已启动。
      oc get services -o wide -n tncp
      NAME                        TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)                         AGE     SELECTOR
      analytics-batch             ClusterIP   172.30.238.92    <none>        30028/TCP,30029/TCP             5d      service=analytics-batch
      analytics-stream            ClusterIP   172.30.77.246    <none>        30030/TCP,30031/TCP             5d18h   service=analytics-stream
      analytics-stream-direct     ClusterIP   None             <none>        30062/TCP,30063/TCP             5d      service=analytics-stream
      app                         ClusterIP   172.30.163.190   <none>        30037/TCP                       5d18h   service=app
      basecamp-pack               ClusterIP   172.30.153.86    <none>        30048/TCP,30049/TCP             108d    service=basecamp-pack
      cassandra                   ClusterIP   None             <none>        9042/TCP,7000/TCP               5d18h   service=cassandra
      dashboard                   ClusterIP   172.30.213.88    <none>        31080/TCP,31443/TCP             5d18h   service=dashboard
      diamond-db                  ClusterIP   172.30.3.173     <none>        30010/TCP,30008/TCP             5d18h   service=diamond-db
      diamond-db-cluster          ClusterIP   None             <none>        7110/TCP                        5d18h   service=diamond-db
      diamond-db-cluster-export   ClusterIP   None             <none>        8120/TCP                        5d18h   service=diamond-db-export
      diamond-db-cluster-read     ClusterIP   None             <none>        8110/TCP                        5d18h   service=diamond-db-read
      diamond-db-export           ClusterIP   172.30.241.149   <none>        30120/TCP,30118/TCP             5d18h   service=diamond-db-export
      diamond-db-read             ClusterIP   172.30.81.211    <none>        30110/TCP,30108/TCP             5d18h   service=diamond-db-read
      dns-collector               ClusterIP   172.30.146.37    <none>        30042/TCP,30043/TCP             5d18h   service=dns-collector
      file-collector              ClusterIP   172.30.114.44    <none>        30024/TCP                       5d      service=file-collector
      flow-analytics              ClusterIP   172.30.203.220   <none>        30044/TCP,30045/TCP             5d18h   service=flow-analytics
      flow-collector              ClusterIP   172.30.252.245   <none>        30040/TCP,30041/TCP             5d18h   service=flow-collector
      flow-collector-external     ClusterIP   172.30.109.183   <none>        4381/TCP,4379/UDP               5d18h   service=flow-collector
      inventory                   ClusterIP   172.30.7.156     <none>        30016/TCP,30017/TCP             5d18h   service=inventory
      kafka                       ClusterIP   172.30.89.32     <none>        9092/TCP                        5d18h   service=kafka
      nifi                        ClusterIP   172.30.194.167   <none>        30026/TCP                       5d18h   service=nifi
      pack-service                ClusterIP   172.30.49.82     <none>        30048/TCP,30049/TCP             5d      service=pack-service
      ping-collector              ClusterIP   172.30.105.95    <none>        30050/TCP,30051/TCP             5d18h   service=ping-collector
      postgres                    ClusterIP   172.30.223.149   <none>        5432/TCP,31415/TCP              5d18h   service=postgres
      postgres-th                 ClusterIP   172.30.65.202    <none>        5433/TCP                        5d18h   service=postgres-th
      security                    ClusterIP   172.30.47.30     <none>        389/TCP                         5d18h   service=security
      snmp-collector              ClusterIP   172.30.19.168    <none>        30034/TCP,30035/TCP             5d18h   service=snmp-collector
      snmp-discovery              ClusterIP   172.30.70.4      <none>        30018/TCP,30019/TCP             5d18h   service=snmp-discovery
      solr                        NodePort    172.30.66.92     <none>        8993:31741/TCP,8983:32093/TCP   5d      service=inventory
      threshold                   ClusterIP   172.30.56.203    <none>        30032/TCP,30033/TCP             5d18h   service=threshold
      timeseries                  ClusterIP   172.30.181.107   <none>        30014/TCP,30015/TCP             5d18h   service=timeseries
      ui                          ClusterIP   172.30.64.171    <none>        30021/TCP                       5d18h   service=ui
      zookeeper                   ClusterIP   172.30.52.247    <none>        2181/TCP,2888/TCP,3888/TCP      5d18h   service=zookeeper 6d22h   service=zookeeper
      
    您可以在 Pod 从 OpenShift Container Platform Web 控制台进行安装时观察这些 Pod。 当您看到所有 Pod 都处于运行状态时,安装将完成。
    注意:
    • 将创建以下配置映射:
      • common 配置映射是使用 LDAP 缺省设置创建的。
      • generic-metric-mapper
      • kube-root-ca.crt
      • openshift-service-ca.crt
      • threshold-omnibus-rule
      • timeseries-retention 配置映射以配置时间序列数据保留时间。
    • 将创建以下 Pod 并将其向上扩展至 1:
      • 应用程序
      • Cassandra
      • 仪表板
      • diamond-db
      • diamond-db-read
      • diamond-db-export
      • Kafka
      • 操作员
      • 打包服务
      • Postgres
      • postgres-th
      • 安全性
      • 时间序列
      • UI
      • Zookeeper
    • 将创建以下 Pod ,但将其缩减为 0:
      • 分析批处理

        具有内置批处理作业的任何技术包。

      • analytics-stream

        具有内置流的任何技术包。

      • DNS Collector

        在安装了 Flow Technology Pack 之后,会对其进行扩展。

      • File Collector

        在安装基于文件的 Technology Pack 后,会将其扩展。

      • Flow Analytics

        在安装了 Flow Technology Pack 之后,会对其进行扩展。

      • Flow Collector

        在安装了 Flow Technology Pack 之后,会对其进行扩展。

      • NiFi

        在安装基于文件的 Technology Pack 后,会将其扩展。

      • Ping 收集器

        手动扩展服务以查看 " Ping 概要文件 " 页面和仪表板。

      • SNMP 收集器

        在安装基于 SNMP 的 Technology Pack 后,会对其进行扩展。

      • SNMP 发现

        在安装基于 SNMP 的 Technology Pack 后,会对其进行扩展。

      • 阈值

        安装具有基线阈值定义的 Technology Pack 后,会将其向上扩展。

      • 库存

        如果缺省情况下未向上扩展,请手动向上扩展库存 Pod。

结果

  • Watson AIOps 上的 OpenShift Container Platform 上安装组件后,可以看到访问 Dashboard 应用服务集线器和 WebSphere® Application Server 的所有路由都已创建。 执行以下步骤以访问 Dashboard Application Services Hub:
    1. 确保您在 noi 项目中。
    2. 运行以下命令以获取 Dashboard Application Services Hub 路径:
      oc describe noi
      要获取 Dashboard Application Services Hub 和 WebSphere Application Server的路径,请转至输出中的以下部分:
      WebGUI:
        Update your hosts file( On the machine you are running your Browser) or your DNS settings with this mapping
      
        $NODE_IP netcool-noi.apps.tncpnoicluster.cp.fyre.ibm.com
      
        firefox https://netcool-noi.apps.<cloud_domain>.com:443/ibm/console
      
        Default credentials are: icpadmin/password you can get from the secret noi-icpadmin-secret using the following
      
        kubectl get secret noi-icpadmin-secret -o json -n noi| grep ICP_ADMIN_PASSWORD  | cut -d : -f2 | cut -d '"' -f2 | base64 -d;echo
       
      WAS Console:
      
        Update your hosts file( On the machine you are running your Browser) or your DNS settings with this mapping
      
        $NODE_IP was-noi.apps.tncpnoicluster.cp.fyre.ibm.com
      
        firefox https://was-noi.apps.<cloud_domain>.com:443/ibm/console
      
        Default credentials are: smadmin/password you can get from the secret noi-was-secret using the following
      
        kubectl get secret noi-was-secret -o json -n noi| grep WAS_PASSWORD | cut -d : -f2 | cut -d '"' -f2 | base64 -d;echo
    3. icpadmin 用户身份运行以下命令以获取用于访问 Dashboard Application Services Hub 的密码:
      kubectl get secret noi-icpadmin-secret -o json -n noi| grep ICP_ADMIN_PASSWORD  | cut -d : -f2 | cut -d '"' -f2 | base64 -d;echo
    4. smadmin 用户身份运行以下命令以获取用于访问 WebSphere Application Server 的密码:
      kubectl get secret noi-was-secret -o json -n noi| grep WAS_PASSWORD | cut -d : -f2 | cut -d '"' -f2 | base64 -d;echo
  • 安装 Telco Network Cloud Manager - Performance后,将创建仪表板服务路由和 NiFi 服务路由。 执行以下步骤以访问 Telco Network Cloud Manager - Performance Dashboards:
    1. 转到网络 > 路由
      缺省情况下,将创建以下服务的路径:
      • 仪表板
      • NiFi
    2. 已创建仪表板服务路径。 单击链接以启动仪表板。
    3. 使用缺省凭证 npiadmin/npiadmin访问 Telco Network Cloud Manager - Performance 仪表板
    4. 单击 NiFi 路由以访问 NiFi Web 界面。
      注: 您还可以根据需要为其他服务创建路由。