Configuration de l'environnement

Options de déploiement : Netezza Performance Server pour Cloud Pak for Data

Découvrez comment configurer votre environnement si vous prévoyez d'installer Netezza Performance Server 11.2.3.3 ou une version ultérieure sur AWS.

  1. Assurez-vous que votre machine locale remplit les conditions suivantes.
    1. Pour les nœuds bastion RHEL et Centos, Podman doit être installé avant l'installation ou la mise à niveau. Docker n'est pris en charge que sur d'autres systèmes d'exploitation.
    2. La machine est une machine Linux 64 bits et dispose d'un accès à l'internet.
    3. Le système d'exploitation de votre machine Linux est :
      • CentOS Stream 8
      • Ubuntu 22.04.1 LTS
      • Red Hat Enterprise Linux 8.6 (Ootpa)
      Pour vérifier le système d'exploitation, vous pouvez exécuter l'une des commandes suivantes :
      • cat /etc/os-release
      • hostnamectl
    4. Helm CLI 3 est installé.

      S'il n'est pas installé, exécutez les commandes suivantes :

      curl -Ls https://get.helm.sh/helm-v3.2.1-linux-amd64.tar.gz -o helm_client.tar.gz
      
      tar -xf helm_client.tar.gz
      
      mv -f linux-amd64/helm $HOME/bin/helm3
      
      helm3 version --short
    5. les unzip et 'Python sont installés.

      La version de Python doit être 3.

    6. La version la plus récente du CLI AWS est installée.

      Pour plus d'informations, voir l'interface de ligne de commandeAWS.

    7. Terraform est installé.
      Exécutez la commande pour vérifier si Terraform est installé :
      terraform -help
      • Si Terraform est installé, passez à l'étape 4.
      • Si Terraform n'est pas installé, exécutez les commandes suivantes :
        curl -Ls https://releases.hashicorp.com/terraform/0.12.23/terraform_0.12.23_linux_amd64.zip -o terraform_client.zip
        
        unzip -oq terraform_client.zip
        
        mv -f terraform $HOME/bin/terraform
        
        terraform version
  2. Assurez-vous que le compte d'utilisateur AWS dispose des autorisations minimales suivantes.
    Vérifiez l'IAMIdentity Access Management) pour l'utilisateur AWS à partir de la console AWS.
    {
                "Sid": "NzcloudAdditionalPermissions",
                "Effect": "Allow",
                "Action": [
                    "ebs:*",
                    "elasticfilesystem:*",
                    "iam:SimulatePrincipalPolicy",
                    "iam:AttachRolePolicy",
                    "iam:CreatePolicy",
                    "iam:GetPolicy",
                    "route53domains:ListDomains",
                    "route53domains:CheckDomainAvailability",
                    "support:DescribeTrustedAdvisorCheckResult",
                    "support:DescribeTrustedAdvisorChecks",
                    "s3:GetBucketEncryption",
                    "s3:GetBucketLifecycle",
                    "servicequotas:ListServiceQuotas"
                ],
                "Resource": "*"
            }
  3. Créez les ressources nécessaires au déploiement de Netezza Performance Server en utilisant la console AWS ou AWS CLI.

    Pour plus d'informations, voir Installation de Red Hat OpenShift sur AWS.

    Voici un exemple de l'infrastructure dont vous avez besoin pour déployer Red Hat OpenShift, Cloud Pak for Data et Netezza Performance Server sur AWS.

    1. Un VPC avec support DNS et un nom d'hôte DNS.
      aws ec2 create-vpc --cidr-block ${VPC_CIDR}
      
      aws ec2 modify-vpc-attribute \
      	  --vpc-id ${VPC_ID} \
      	  --enable-dns-support "{\"Value\":true}"
      aws ec2 modify-vpc-attribute \
      	  --vpc-id ${VPC_ID} \
      	  --enable-dns-hostnames "{\"Value\":true}"
    2. Une passerelle internet attachée au VPC.
      aws ec2 create-internet-gateway
      
      aws ec2 attach-internet-gateway \
          --vpc-id ${VPC_ID} \
          --internet-gateway-id ${INTERNETGATEWAY_ID}
    3. Une table de routage publique associée au VPC et une route dans cette table de routage vers la passerelle Internet.
      aws ec2 create-route-table --vpc-id ${VPC_ID}
      
      ---
      
      aws ec2 create-route \
      
      --route-table-id ${ROUTE_TABLE_PUBLIC} \
      
      --destination-cidr-block 0.0.0.0/0 \
      
      --gateway-id ${INTERNETGATEWAY_ID}
    4. Un sous-réseau public pour le VPC dans le " ZONE voulu qui doit être mappé à un " REGION et associé à la table des routes publiques.
      aws ec2 create-subnet \
          --vpc-id ${VPC_ID} \
          --availability-zone ${SUBNET_PUBLIC_1_ZONE} \
          --cidr-block ${SUBNET_PUBLIC_1_CIDR}
      
      aws ec2 associate-route-table \
          --subnet-id ${SUBNET_PUBLIC_1_ID} \
          --route-table-id ${ROUTE_TABLE_PUBLIC}
      aws ec2 modify-subnet-attribute \
          --subnet-id ${SUBNET_PUBLIC_1_ID} \
          --map-public-ip-on-launch \
          --region $REGION
      1. Une allocation d'adresse (Elastic IP), et une passerelle NAT pour le sous-réseau public qui est attaché à l'allocation d'adresse.
        aws ec2 allocate-address \
            --domain vpc \
            --network-border-group $REGION
        
        aws ec2 create-nat-gateway \
            --subnet-id ${SUBNET_PUBLIC_1_ID} \
            --allocation-id $ELASTIC_IP_NAT_GATEWAY
      2. Une table de route privée et une route pour la passerelle NAT.
        aws ec2 create-route-table 
            --vpc-id ${VPC_ID}
                  
        aws ec2 create-route \
            --route-table-id ${ROUTE_TABLE_PRIVATE} \
            --destination-cidr-block 0.0.0.0/0 \
            --nat-gateway-id ${NATGATEWAY_ID}
    5. Créez au moins trois sous-réseaux avec un " CIDR BLOCK et un " ZONE différents qui sont associés à la table de routage privée.
      aws ec2 create-subnet \
          --vpc-id ${VPC_ID} \
          --availability-zone ${SUBNET_PRIVATE_1_ZONE} \
          --cidr-block ${SUBNET_PRIVATE_1_CIDR}
      aws ec2 associate-route-table --route-table-id ${ROUTE_TABLE_PRIVATE} --subnet-id ${SUBNET_PRIVATE_1_ID}
      
      aws ec2 create-subnet \
          --vpc-id ${VPC_ID} \
          --availability-zone ${SUBNET_PRIVATE_2_ZONE} \
          --cidr-block ${SUBNET_PRIVATE_2_CIDR}
      aws ec2 associate-route-table --route-table-id ${ROUTE_TABLE_PRIVATE} --subnet-id ${SUBNET_PRIVATE_2_ID}
      
      aws ec2 create-subnet \
          --vpc-id ${VPC_ID} \
          --availability-zone ${SUBNET_PRIVATE_3_ZONE} \
          --cidr-block ${SUBNET_PRIVATE_3_CIDR}
      aws ec2 associate-route-table --route-table-id ${ROUTE_TABLE_PRIVATE} --subnet-id ${SUBNET_PRIVATE_3_ID}
    6. Créer une Route53.
      aws route53 create-hosted-zone \
          --name ${HOSTED_ZONE_PRIVATE_NAME} \
          --vpc VPCRegion=$REGION,VPCId=${VPC_ID} \
          --caller-reference ${HOSTED_ZONE_PRIVATE_CALLER_REF} \
          --hosted-zone-config PrivateZone=true
    7. Créez un nœud Bastion avec une clé SSH, un groupe de sécurité et une règle d'entrée pour l'accès SSH.
      aws ec2 create-key-pair \
      		--key-name $SSH_KEY_NAME \
      		--query 'KeyMaterial' \
      		--output text \
      		--region $REGION > $SSH_KEY
      
      aws ec2 create-security-group \
          --group-name SSHAccess \
          --description $DESCRIPTION \ # e.g. "SSH Access"
          --vpc-id $VPC_ID \
          --region $REGION
          
      aws ec2 authorize-security-group-ingress \
      		--group-id $SECURITY_GROUP_ID_BASTION \
      		--protocol tcp \
      		--port 22 \
      		--cidr $INGRESS_CIDR \ # e.g 0.0.0.0/0
      		--region $REGION
      
      aws ec2 run-instances \
          --image-id $AMI_ID \
          --count 1 \
          --instance-type $INSTANCE_TYPE \ # e.g. t2.medium
          --key-name $SSH_KEY_NAME \
          --security-group-ids $SECURITY_GROUP_ID_BASTION \
          --subnet-id ${SUBNET_PUBLIC_1_ID}
  4. Facultatif : Pour l'installation d'un cluster privé, procédez comme suit :
    1. Assurez-vous que les URL nécessaires sont ouverts.

      Examinez attentivement tout changement d'URL entre les différentes versions de Red Hat OpenShift.

    2. Si un pare-feu est présent, procédez comme suit :
      1. Configurez le pare-feu afin que Red Hat OpenShift Container Platform puisse accéder aux sites dont il a besoin pour fonctionner. Pour plus d'informations, voir Configuration du pare-feu.
      2. Vérifiez si les URL figurent dans la liste d'autorisation.
        Vous pouvez vérifier la connexion en utilisant la commande 'netcat ou 'telnet avec 'gcr.io au port '443:.
        nc -zv gcr.io 443
        Exemple :
        $ nc -zv gcr.io 443
        Connection to gcr.io port 443 [tcp/https] succeeded!
    3. Vérifiez que les ports suivants sont ouverts :
      • Ports 80, 443, 6443, 22623
      • Arrivée sur 2049NFS)