Configuration de l'environnement
Découvrez comment configurer votre environnement si vous prévoyez d'installer Netezza Performance Server 11.2.3.3 ou une version ultérieure sur AWS.
- Assurez-vous que votre machine locale remplit les conditions suivantes.
- Pour les nœuds bastion RHEL et Centos, Podman doit être installé avant l'installation ou la mise à niveau. Docker n'est pris en charge que sur d'autres systèmes d'exploitation.
- La machine est une machine Linux 64 bits et dispose d'un accès à l'internet.
- Le système d'exploitation de votre machine Linux est :
CentOS Stream 8Ubuntu 22.04.1 LTSRed Hat Enterprise Linux 8.6 (Ootpa)
cat /etc/os-releasehostnamectl
- Helm CLI 3 est installé.
S'il n'est pas installé, exécutez les commandes suivantes :
curl -Ls https://get.helm.sh/helm-v3.2.1-linux-amd64.tar.gz -o helm_client.tar.gz tar -xf helm_client.tar.gz mv -f linux-amd64/helm $HOME/bin/helm3 helm3 version --short - les
unzipet 'Pythonsont installés.La version de Python doit être 3.
- La version la plus récente du CLI AWS est installée.
Pour plus d'informations, voir l'interface de ligne de commandeAWS.
- Terraform est installé.Exécutez la commande pour vérifier si Terraform est installé :
terraform -help- Si Terraform est installé, passez à l'étape 4.
- Si Terraform n'est pas installé, exécutez les commandes suivantes :
curl -Ls https://releases.hashicorp.com/terraform/0.12.23/terraform_0.12.23_linux_amd64.zip -o terraform_client.zip unzip -oq terraform_client.zip mv -f terraform $HOME/bin/terraform terraform version
- Assurez-vous que le compte d'utilisateur AWS dispose des autorisations minimales suivantes.Vérifiez l'IAMIdentity Access Management) pour l'utilisateur AWS à partir de la console AWS.
{ "Sid": "NzcloudAdditionalPermissions", "Effect": "Allow", "Action": [ "ebs:*", "elasticfilesystem:*", "iam:SimulatePrincipalPolicy", "iam:AttachRolePolicy", "iam:CreatePolicy", "iam:GetPolicy", "route53domains:ListDomains", "route53domains:CheckDomainAvailability", "support:DescribeTrustedAdvisorCheckResult", "support:DescribeTrustedAdvisorChecks", "s3:GetBucketEncryption", "s3:GetBucketLifecycle", "servicequotas:ListServiceQuotas" ], "Resource": "*" } - Créez les ressources nécessaires au déploiement de Netezza Performance Server en utilisant la console AWS ou AWS CLI.
Pour plus d'informations, voir Installation de Red Hat OpenShift sur AWS.
Voici un exemple de l'infrastructure dont vous avez besoin pour déployer Red Hat OpenShift, Cloud Pak for Data et Netezza Performance Server sur AWS.
- Un VPC avec support DNS et un nom d'hôte DNS.
aws ec2 create-vpc --cidr-block ${VPC_CIDR} aws ec2 modify-vpc-attribute \ --vpc-id ${VPC_ID} \ --enable-dns-support "{\"Value\":true}" aws ec2 modify-vpc-attribute \ --vpc-id ${VPC_ID} \ --enable-dns-hostnames "{\"Value\":true}" - Une passerelle internet attachée au VPC.
aws ec2 create-internet-gateway aws ec2 attach-internet-gateway \ --vpc-id ${VPC_ID} \ --internet-gateway-id ${INTERNETGATEWAY_ID} - Une table de routage publique associée au VPC et une route dans cette table de routage vers la passerelle Internet.
aws ec2 create-route-table --vpc-id ${VPC_ID} --- aws ec2 create-route \ --route-table-id ${ROUTE_TABLE_PUBLIC} \ --destination-cidr-block 0.0.0.0/0 \ --gateway-id ${INTERNETGATEWAY_ID} - Un sous-réseau public pour le VPC dans le "
ZONEvoulu qui doit être mappé à un "REGIONet associé à la table des routes publiques.aws ec2 create-subnet \ --vpc-id ${VPC_ID} \ --availability-zone ${SUBNET_PUBLIC_1_ZONE} \ --cidr-block ${SUBNET_PUBLIC_1_CIDR} aws ec2 associate-route-table \ --subnet-id ${SUBNET_PUBLIC_1_ID} \ --route-table-id ${ROUTE_TABLE_PUBLIC} aws ec2 modify-subnet-attribute \ --subnet-id ${SUBNET_PUBLIC_1_ID} \ --map-public-ip-on-launch \ --region $REGION- Une allocation d'adresse (Elastic IP), et une passerelle NAT pour le sous-réseau public qui est attaché à l'allocation d'adresse.
aws ec2 allocate-address \ --domain vpc \ --network-border-group $REGION aws ec2 create-nat-gateway \ --subnet-id ${SUBNET_PUBLIC_1_ID} \ --allocation-id $ELASTIC_IP_NAT_GATEWAY - Une table de route privée et une route pour la passerelle NAT.
aws ec2 create-route-table --vpc-id ${VPC_ID} aws ec2 create-route \ --route-table-id ${ROUTE_TABLE_PRIVATE} \ --destination-cidr-block 0.0.0.0/0 \ --nat-gateway-id ${NATGATEWAY_ID}
- Une allocation d'adresse (Elastic IP), et une passerelle NAT pour le sous-réseau public qui est attaché à l'allocation d'adresse.
- Créez au moins trois sous-réseaux avec un "
CIDR BLOCKet un "ZONEdifférents qui sont associés à la table de routage privée.aws ec2 create-subnet \ --vpc-id ${VPC_ID} \ --availability-zone ${SUBNET_PRIVATE_1_ZONE} \ --cidr-block ${SUBNET_PRIVATE_1_CIDR} aws ec2 associate-route-table --route-table-id ${ROUTE_TABLE_PRIVATE} --subnet-id ${SUBNET_PRIVATE_1_ID} aws ec2 create-subnet \ --vpc-id ${VPC_ID} \ --availability-zone ${SUBNET_PRIVATE_2_ZONE} \ --cidr-block ${SUBNET_PRIVATE_2_CIDR} aws ec2 associate-route-table --route-table-id ${ROUTE_TABLE_PRIVATE} --subnet-id ${SUBNET_PRIVATE_2_ID} aws ec2 create-subnet \ --vpc-id ${VPC_ID} \ --availability-zone ${SUBNET_PRIVATE_3_ZONE} \ --cidr-block ${SUBNET_PRIVATE_3_CIDR} aws ec2 associate-route-table --route-table-id ${ROUTE_TABLE_PRIVATE} --subnet-id ${SUBNET_PRIVATE_3_ID} - Créer une Route53.
aws route53 create-hosted-zone \ --name ${HOSTED_ZONE_PRIVATE_NAME} \ --vpc VPCRegion=$REGION,VPCId=${VPC_ID} \ --caller-reference ${HOSTED_ZONE_PRIVATE_CALLER_REF} \ --hosted-zone-config PrivateZone=true - Créez un nœud Bastion avec une clé SSH, un groupe de sécurité et une règle d'entrée pour l'accès SSH.
aws ec2 create-key-pair \ --key-name $SSH_KEY_NAME \ --query 'KeyMaterial' \ --output text \ --region $REGION > $SSH_KEY aws ec2 create-security-group \ --group-name SSHAccess \ --description $DESCRIPTION \ # e.g. "SSH Access" --vpc-id $VPC_ID \ --region $REGION aws ec2 authorize-security-group-ingress \ --group-id $SECURITY_GROUP_ID_BASTION \ --protocol tcp \ --port 22 \ --cidr $INGRESS_CIDR \ # e.g 0.0.0.0/0 --region $REGION aws ec2 run-instances \ --image-id $AMI_ID \ --count 1 \ --instance-type $INSTANCE_TYPE \ # e.g. t2.medium --key-name $SSH_KEY_NAME \ --security-group-ids $SECURITY_GROUP_ID_BASTION \ --subnet-id ${SUBNET_PUBLIC_1_ID}
- Un VPC avec support DNS et un nom d'hôte DNS.
- Facultatif : Pour l'installation d'un cluster privé, procédez comme suit :
- Assurez-vous que les URL nécessaires sont ouverts.
Examinez attentivement tout changement d'URL entre les différentes versions de Red Hat OpenShift.
- Pour Red Hat OpenShift, voir la liste sur https://docs.openshift.com/container-platform/4.14/installing/install_config/configuring-firewall.
- Pour le Cloud Pak for Data:
cp.icr.io/cpcp.icr.io/cp/cpdicr.io/cpopenquay.io/opencloudio
- Pour Netezza Performance Server:
storage.googleapis.comgcr.ioquay.io/external_storageregistry.access.redhat.com/ubi8quay.io/k8scsik8s.gcr.io/sig-storagegcr.io/kubebuilder
- Si un pare-feu est présent, procédez comme suit :
- Configurez le pare-feu afin que Red Hat OpenShift Container Platform puisse accéder aux sites dont il a besoin pour fonctionner. Pour plus d'informations, voir Configuration du pare-feu.
- Vérifiez si les URL figurent dans la liste d'autorisation.Vous pouvez vérifier la connexion en utilisant la commande 'netcat ou 'telnet avec '
gcr.ioau port '443:.
Exemple :nc -zv gcr.io 443$ nc -zv gcr.io 443 Connection to gcr.io port 443 [tcp/https] succeeded!
- Vérifiez que les ports suivants sont ouverts :
- Ports 80, 443, 6443, 22623
- Arrivée sur 2049NFS)
- Assurez-vous que les URL nécessaires sont ouverts.