Configuración del entorno

Opciones de implementación: Netezza Performance Server para Cloud Pak for Data

Aprenda a configurar su entorno si planea instalar Netezza Performance Server 11.2.3.3-IF1 o más adelante en AWS.

  1. Asegúrese de que su máquina local cumple los siguientes requisitos.
    1. Para los nodos bastión de RHEL y Centos, debe instalarse Podman antes de la instalación o actualización. Docker sólo es compatible con otros sistemas operativos.
    2. La máquina es una Linux de 64 bits y tiene acceso a Internet.
    3. El sistema operativo de su máquina Linux es:
      • CentOS Stream 8
      • Ubuntu 22.04.1 LTS
      • Red Hat Enterprise Linux 8.6 (Ootpa)
      Para comprobar el sistema operativo, puede ejecutar uno de los comandos:
      • cat /etc/os-release
      • hostnamectl
    4. Helm CLI 3 está instalado.

      Si no está instalado, ejecute los siguientes comandos:

      curl -Ls https://get.helm.sh/helm-v3.2.1-linux-amd64.tar.gz -o helm_client.tar.gz
      
      tar -xf helm_client.tar.gz
      
      mv -f linux-amd64/helm $HOME/bin/helm3
      
      helm3 version --short
    5. unzip y Python están instalados.

      La versión de Python debe ser la 3.

    6. La versión más reciente de AWS CLI está instalada.

      Para más información, consulte AWS Command Line Interface.

    7. Terraform está instalado.
      Ejecute el comando para comprobar si Terraform está instalado:
      terraform -help
      • Si Terraform está instalado, vaya al paso 4.
      • Si Terraform no está instalado, ejecute los siguientes comandos:
        curl -Ls https://releases.hashicorp.com/terraform/0.12.23/terraform_0.12.23_linux_amd64.zip -o terraform_client.zip
        
        unzip -oq terraform_client.zip
        
        mv -f terraform $HOME/bin/terraform
        
        terraform version
  2. Asegúrese de que la cuenta de usuario AWS tiene los siguientes permisos mínimos.
    Compruebe IAM ( Identity Access Management ) para el usuario AWS desde la consola AWS.
    {
                "Sid": "NzcloudAdditionalPermissions",
                "Effect": "Allow",
                "Action": [
                    "ebs:*",
                    "elasticfilesystem:*",
                    "iam:SimulatePrincipalPolicy",
                    "iam:AttachRolePolicy",
                    "iam:CreatePolicy",
                    "iam:GetPolicy",
                    "route53domains:ListDomains",
                    "route53domains:CheckDomainAvailability",
                    "support:DescribeTrustedAdvisorCheckResult",
                    "support:DescribeTrustedAdvisorChecks",
                    "s3:GetBucketEncryption",
                    "s3:GetBucketLifecycle",
                    "servicequotas:ListServiceQuotas"
                ],
                "Resource": "*"
            }
  3. Cree los recursos necesarios para el despliegue Netezza Performance Server utilizando la consola AWS o la CLI AWS.

    Para más información, consulte Instalación de Red Hat OpenShift en AWS.

    A continuación se muestra un ejemplo de la infraestructura que necesita para desplegar Red Hat OpenShift, Cloud Pak for Data, y Netezza Performance Server en AWS.

    1. Una VPC con soporte DNS y un nombre de host DNS.
      aws ec2 create-vpc --cidr-block ${VPC_CIDR}
      
      aws ec2 modify-vpc-attribute \
      	  --vpc-id ${VPC_ID} \
      	  --enable-dns-support "{\"Value\":true}"
      aws ec2 modify-vpc-attribute \
      	  --vpc-id ${VPC_ID} \
      	  --enable-dns-hostnames "{\"Value\":true}"
    2. Una pasarela de Internet conectada a la VPC.
      aws ec2 create-internet-gateway
      
      aws ec2 attach-internet-gateway \
          --vpc-id ${VPC_ID} \
          --internet-gateway-id ${INTERNETGATEWAY_ID}
    3. Una tabla de rutas pública asociada a la VPC, y una ruta en esa tabla de rutas hacia el gateway de Internet.
      aws ec2 create-route-table --vpc-id ${VPC_ID}
      
      ---
      
      aws ec2 create-route \
      
      --route-table-id ${ROUTE_TABLE_PUBLIC} \
      
      --destination-cidr-block 0.0.0.0/0 \
      
      --gateway-id ${INTERNETGATEWAY_ID}
    4. Una subred pública para la VPC en la ZONE deseada que necesita ser mapeada a una REGION y asociada con la tabla de rutas públicas.
      aws ec2 create-subnet \
          --vpc-id ${VPC_ID} \
          --availability-zone ${SUBNET_PUBLIC_1_ZONE} \
          --cidr-block ${SUBNET_PUBLIC_1_CIDR}
      
      aws ec2 associate-route-table \
          --subnet-id ${SUBNET_PUBLIC_1_ID} \
          --route-table-id ${ROUTE_TABLE_PUBLIC}
      aws ec2 modify-subnet-attribute \
          --subnet-id ${SUBNET_PUBLIC_1_ID} \
          --map-public-ip-on-launch \
          --region $REGION
      1. Una asignación de direcciones (Elastic IP), y NAT Gateway para la subred pública que se adjunta a la asignación de direcciones.
        aws ec2 allocate-address \
            --domain vpc \
            --network-border-group $REGION
        
        aws ec2 create-nat-gateway \
            --subnet-id ${SUBNET_PUBLIC_1_ID} \
            --allocation-id $ELASTIC_IP_NAT_GATEWAY
      2. Una tabla de rutas privadas y una ruta para la pasarela NAT.
        aws ec2 create-route-table 
            --vpc-id ${VPC_ID}
                  
        aws ec2 create-route \
            --route-table-id ${ROUTE_TABLE_PRIVATE} \
            --destination-cidr-block 0.0.0.0/0 \
            --nat-gateway-id ${NATGATEWAY_ID}
    5. Cree al menos tres subredes con un CIDR BLOCK y ZONE diferentes que estén asociadas a la Tabla de Rutas Privadas.
      aws ec2 create-subnet \
          --vpc-id ${VPC_ID} \
          --availability-zone ${SUBNET_PRIVATE_1_ZONE} \
          --cidr-block ${SUBNET_PRIVATE_1_CIDR}
      aws ec2 associate-route-table --route-table-id ${ROUTE_TABLE_PRIVATE} --subnet-id ${SUBNET_PRIVATE_1_ID}
      
      aws ec2 create-subnet \
          --vpc-id ${VPC_ID} \
          --availability-zone ${SUBNET_PRIVATE_2_ZONE} \
          --cidr-block ${SUBNET_PRIVATE_2_CIDR}
      aws ec2 associate-route-table --route-table-id ${ROUTE_TABLE_PRIVATE} --subnet-id ${SUBNET_PRIVATE_2_ID}
      
      aws ec2 create-subnet \
          --vpc-id ${VPC_ID} \
          --availability-zone ${SUBNET_PRIVATE_3_ZONE} \
          --cidr-block ${SUBNET_PRIVATE_3_CIDR}
      aws ec2 associate-route-table --route-table-id ${ROUTE_TABLE_PRIVATE} --subnet-id ${SUBNET_PRIVATE_3_ID}
    6. Cree una página Route53.
      aws route53 create-hosted-zone \
          --name ${HOSTED_ZONE_PRIVATE_NAME} \
          --vpc VPCRegion=$REGION,VPCId=${VPC_ID} \
          --caller-reference ${HOSTED_ZONE_PRIVATE_CALLER_REF} \
          --hosted-zone-config PrivateZone=true
    7. Cree un Nodo Bastión con una Clave SSH, un Grupo de Seguridad y una regla de entrada para el Acceso SSH.
      aws ec2 create-key-pair \
      		--key-name $SSH_KEY_NAME \
      		--query 'KeyMaterial' \
      		--output text \
      		--region $REGION > $SSH_KEY
      
      aws ec2 create-security-group \
          --group-name SSHAccess \
          --description $DESCRIPTION \ # e.g. "SSH Access"
          --vpc-id $VPC_ID \
          --region $REGION
          
      aws ec2 authorize-security-group-ingress \
      		--group-id $SECURITY_GROUP_ID_BASTION \
      		--protocol tcp \
      		--port 22 \
      		--cidr $INGRESS_CIDR \ # e.g 0.0.0.0/0
      		--region $REGION
      
      aws ec2 run-instances \
          --image-id $AMI_ID \
          --count 1 \
          --instance-type $INSTANCE_TYPE \ # e.g. t2.medium
          --key-name $SSH_KEY_NAME \
          --security-group-ids $SECURITY_GROUP_ID_BASTION \
          --subnet-id ${SUBNET_PUBLIC_1_ID}
  4. Opcional: Para una instalación de clúster privado, siga estos pasos:
    1. Asegúrese de que las URL necesarias están abiertas.

      Revise cuidadosamente cualquier cambio en las URL entre las diferentes versiones de Red Hat OpenShift.

    2. Si hay un cortafuegos, haga lo siguiente:
      1. Configure el cortafuegos para que Red Hat OpenShift Container Platform pueda acceder a los sitios que necesita para funcionar. Para más información, consulte Configurar el cortafuegos.
      2. Compruebe si las URL están en la lista de permitidas.
        Puede comprobar la conexión utilizando el comando netcat o telnet con gcr.io en el puerto 443:.
        nc -zv gcr.io 443
        Ejemplo:
        $ nc -zv gcr.io 443
        Connection to gcr.io port 443 [tcp/https] succeeded!
    3. Compruebe que los siguientes puertos están abiertos:
      • Puertos 80, 443, 6443, 22623
      • Entrada en 2049 ( NFS )