Melhores práticas usando a infraestrutura como serviço no IBM PureApplication System

Esse artigo explica as melhores práticas usadas para virtualizar os recursos de hardware no IBM® PureApplication™ System para obter a infraestrutura como serviço. Ele descreve como o PureApplication System usa máquinas virtuais (VMs) para virtualizar os recursos computacionais, redes locais virtuais (VLANs) para virtualizar recursos de rede e redes de área de armazenamento (SAN) para virtualizar recursos de armazenamento.

Bobby Woolf, Certified Consulting IT Specialist, A IBM

Photo of Bobby WoolfBobby Woolf é um Consultor do IBM Software Services for WebSphere (ISSW), com foco no IBM PureApplication System, arquitetura orientada a serviços, arquitetura dirigida a eventos e integração de aplicativos. Ele é autor de Exploring IBM SOA Technology and Practice e coautor de Enterprise Integration Patterns e The Design Patterns Smalltalk Companion.



08/Jul/2013

Introdução

O IBM PureApplication System W1500 v1.0 e W1700 v1.0 (a seguir chamado de PureApplication System) fornece um ambiente para executar cargas de trabalho em uma nuvem. Para isso, ele fornece um conjunto abrangente de hardware de computador com a capacidade de executar milhares de programas de computador simultaneamente. Para gerenciar e utilizar esse hardware de forma eficiente, o sistema emprega várias melhores práticas do segmento de mercado para virtualizar seus recursos de hardware, oferecendo às cargas de trabalho uma grande flexibilidade para serem executadas em qualquer lugar na nuvem. Ao conhecer essas técnicas e como o produto as usa, você terá um maior entendimento e avaliação do ambiente em nuvem fornecido pelo PureApplication System.

O artigo é o segundo de uma série de três artigos que explicam a base de software e hardware que o PureApplication System fornece para ambientes de tempo de execução de aplicativos de host:

Cada artigo se desenvolve sobre seu predecessor para explicar essa base completamente.

Para entender a virtualização de recursos no PureApplication System, iremos explorar os modelos de entrega incorporados em um sistema de computação em nuvem, as abordagens usadas para virtualizar diferentes tipos de recursos e como o produto faz uso dessas abordagens.


Modelos de entrega em nuvem

A virtualização de recursos de hardware frequentemente é descrita como "infraestrutura como serviço". Esse é um dos três modelos de entrega em nuvem (também conhecido como modelos de serviço em nuvem):

  • Infraestrutura como serviço (IaaS) fornece um ambiente de recursos de hardware virtualizados para computação, armazenamento e rede.
  • Plataforma como Serviço (PaaS) fornece um ambiente de tempo de execução de aplicativo virtualizado que inclui sistemas operacionais, middleware como servidores de aplicativos, bancos de dados e sistemas de mensagens e serviços compartilhados como armazenamento em cache, monitoramento e segurança.
  • Software como Serviço (SaaS) fornece aplicativos de negócios acessíveis por rede em um ambiente hospedado de forma central que é altamente confiável e escalável.

Os modelos são acumulativos, cada um sendo desenvolvido com base em seus predecessores. A Figura 1 ilustra os modelos de entrega em nuvem.

Figura 1. Modelos de entrega em nuvem
Modelos de entrega em nuvem

O artigo Navegando na Nuvem IBM, Parte 1: Um Manual sobre Tecnologias em Nuvem explica os modelos de entrega em nuvem mais detalhadamente. Os modelos de entrega não são tecnologias específicas, mas sim objetivos de arquitetura de um sistema de computação em nuvem. Esse artigo tem como foco a primeira camada, infraestrutura como serviço, e como ela é implementada no PureApplication System.

Virtualização de recursos

A infraestrutura como serviço é um objetivo atingido através da virtualização de recursos. Virtualização de recursos separa cargas de trabalho (isto é, programas em execução) do hardware subjacente no qual eles são executados. Para um programa ser executado, ele, claro, precisa de recursos de hardware. Porém, para as cargas de trabalho serem executadas "na nuvem", elas não podem estar limitadas a um conjunto de hardware específico. Isso significa que a carga de trabalho deve poder ser executada em qualquer um dos vários conjuntos redundantes de hardware. Para atingir esse objetivo, a nuvem virtualiza os recursos de hardware para separar as cargas de trabalho do hardware e permitir que a nuvem gerencie o uso desses recursos pela carga de trabalho.

Uma nuvem organiza seus recursos de hardware para executar as cargas de trabalho em três tipos principais que são fundamentais para toda a computação:

  • Recursos computacionais: Eles são o CPU e a memória de que qualquer programa precisa para ser executado.
  • Recursos de rede: Eles são a conectividade entre os programas que permite que eles se comuniquem.
  • Recursos de armazenamento: Eles permitem que os programas preservem seu estado.

O PureApplication System utiliza técnicas que virtualizam cada um desses recursos:

  • Ele virtualiza os recursos computacionais usando máquinas virtuais (VMs).
  • Ele virtualiza os recursos de rede usando redes locais virtuais (VLANs).
  • Ele virtualiza os recursos de armazenamento usando uma rede de área de armazenamento (SAN).

Nenhuma dessas técnicas é uma nova invenção do PureApplication System e é esse o ponto. O sistema cria seu ambiente de nuvem virtualizado ao alavancar as melhores práticas do segmento de mercado que são bem conhecidas e comprovadas. Entender o que essas técnicas são e como o produto faz uso delas é importante para avaliar como a nuvem do sistema fornece um ambiente completamente virtualizado para suas cargas de trabalho.


Virtualização dos recursos computacionais

Os recursos computacionais são necessários para um programa de computador funcionar, a saber, CPU e memória, e geralmente são considerados como um computador. Normalmente, um programa é instalado em um computador e, então, ele pode ser executado apenas nos recursos desse computador. Se esses recursos ficarem indisponíveis, seja pelo fato de não estarem funcionando ou por estarem ocupados executando outros programas, esse programa não pode ser executado. Para garantir que o programa sempre possa ser executado, uma melhor prática é separá-lo de qualquer conjunto de recursos computacionais específico, uma abordagem chamada de "virtualização de plataforma".

A virtualização de plataforma separa os programas de computador do hardware de computador em que são executados. Isso permite que o programa seja executado em qualquer hardware que esteja disponível. Para isso, o programa precisa ser empacotado como um aplicativo virtualizado que é executado em uma plataforma virtualizada. O aplicativo virtualizado é aquele que é instalado independentemente de qualquer conjunto de hardware específico de forma que possa ser executado em qualquer lugar em uma plataforma virtualizada. O plataforma virtualizada é um conjunto de hardware configurado para se comportar como vários conjuntos de hardware ao compartilhar o único conjunto de hardware subjacente.

Virtual machines

A virtualização de plataforma normalmente é implementada usando um ou mais hypervisors para executar um conjunto de máquinas virtuais. O máquina virtual (VM) é o software que simula um computador físico ao executar um sistema operacional exatamente como um computador, mas o computador é virtual, pois o hypervisor da VM separa o sistema operacional do hardware subjacente. O hypervisor , também conhecido como um gerenciador de virtualização, monitor de máquina virtual (VMM) ou virtualizador de plataforma, é um sistema operacional especializado que executa apenas máquinas virtuais. Um hypervisor executando várias máquinas virtuais permite o que parece vários computadores sendo executados em um único computador físico, permitindo que os computadores virtuais compartilhem os recursos de hardware desse computador físico. Os exemplos de produtos de hypervisor incluem o VMWare vSphere™ Hypervisor (ESXi) e o IBM PowerVM™.

O artigo Navegando na Nuvem IBM, Parte 1: Um Manual sobre Tecnologias em Nuvem explica a virtualização da plataforma usando hypervisors. A Figura 2 mostra a pilha de virtualização com máquinas virtuais sendo executadas em um hypervisor que é executado diretamente no hardware físico (Tipo 1) ou em um sistema operacional do host em tal hardware (Tipo 2). Cada VM normalmente tem seu próprio endereço IP exclusivo para que possa participar de uma rede como um computador independente. O hypervisor em si requer outro endereço IP para que possa ser gerenciado remotamente.

Figura 2. Tipos de hypervisors
Tipos de hypervisors

VMs no PureApplication System

Um nó de cálculo é o recurso computacional mais fundamental no PureApplication System. A principal diferença entre os diferentes tamanhos de produto é o número de nós de cálculo, expresso como o número de núcleos de CPU contidos nesses nós de cálculo (indo de 32 a 608). Mais nós de cálculo significam que o sistema tem uma capacidade computacional maior.

O nó de cálculo é um conjunto de hardware de computador contendo o CPU e a memória que têm acesso ao armazenamento e à rede. Por essência, é um computador muito compacto um pouco como um servidor blade. Como um computador, é possível para um nó de cálculo executar um sistema operacional. Porém, no PureApplication System, em vez de um sistema operacional tradicional, cada nó executa um hypervisor.

Anteriormente, a Figura 2 mostrou como um hypervisor permite que várias máquinas virtuais compartilhem um conjunto de hardware subjacente. No PureApplication System, conforme mostrado na Figura 3, o hardware físico é um nó de cálculo, o Tipo 1 de hypervisor é executado diretamente no nó e cada máquina virtual executa um servidor de middleware em um sistema operacional.

Tecnicamente, a VM pode executar qualquer programa que possa ser instalado no sistema operacional. Para implementar essa VM no PureApplication System, ela precisará ser desenvolvida em um dispositivo virtual conforme discutido no artigo Navegando na Nuvem IBM, Parte 1: Um Manual sobre Tecnologias em Nuvem. No entanto, o PureApplication System primeiramente usa suas VMs para executar servidores de middleware.

Figura 3. Pilha de hypervisors em um nó de cálculo
Pilha de hypervisors em um nó de cálculo

A marca do hypervisor executado em um nó de cálculo depende do modelo do sistema:

  • W1500: VMware vSphere Hypervisor (ESXi)
  • W1700: IBM PowerVM

O aplicativo virtualizado é executado em máquinas virtuais, que são executadas no hypervisor, que é executado no nó de cálculo. Porém, no PureApplication System, os aplicativos virtualizados não são implementados diretamente nos nós de cálculo, mas sim em grupos de nuvens. O grupo de nuvens é uma coleção de um ou mais nós de cálculo que atuam como um computador lógico e executa as cargas de trabalho.

O carga de trabalho é um aplicativo virtualizado sendo executado em um grupo de nuvens. Uma VM de carga de trabalho é executada nos nós de cálculo do grupo de nuvem e não necessariamente todos no mesmo nó de cálculo. O grupo de nuvens pode mover as VMs entre os nós de cálculo para balanceamento de carga ou fins de failover. Pelo fato de as máquinas virtuais em um aplicativo virtualizado precisarem de endereços IP para acesso à rede, o grupo de nuvem também contém um ou mais grupos de IP. Uma grupo de IPs é uma lista ou intervalo de endereços IP, o ID de VLAN que eles devem usar para comunicação e as configurações para como se conectar à rede externa da qual a VLAN faz partes. As VLANs são explicadas na seção Virtualização dos recursos de rede .

Para resumir, um aplicativo é implementado no PureApplication System como um aplicativo virtualizado que é executado em uma plataforma virtualizada, significando que o aplicativo é executado em máquinas virtuais e que a plataforma as executa em um hypervisor. A plataforma virtualizada é um grupo de nuvens, que é um computador lógico composto por nós de cálculo, cada um dos quais é um computador físico e é em si uma plataforma virtualizada que executa um hypervisor.


Virtualização dos recursos de rede

Os recursos de rede permitem que vários processos de computação se comuniquem, normalmente programas sendo executados em computadores separados. O protocolo de rede normalmente é um Protocolo da Internet (IP), que requer que cada programa seja executado em um computador com um endereço IP exclusivo. Para ajudar a isolar os conjuntos de dados não relacionados na rede e proteger sua privacidade, cada conjunto de programas intercomunicando-se deve ter acesso apenas ao seu próprio tráfego de rede e outros programas não relacionados não devem ter acesso a esse tráfego.Uma melhor prática para isolar os conjuntos de tráfego de dados é dividir a rede em VLANs.

Redes locais virtuais

O rede local virtual (VLAN) isola, de forma lógica, seu tráfego de rede do de outras VLANs na mesma rede como um domínio de transmissão separado. Isso significa que o tráfego de rede dos aplicativos conectados através de duas VLANs diferentes transmite em redes aparentemente independentes. Isso é útil, por exemplo, para isolar o tráfego de rede dos aplicativos não relacionados (como desenvolvimento vs produção ou Departamento Financeiro vs Departamento de Recursos Humanos).

Como explicado anteriormente na Virtualização dos recursos computacionais, várias máquinas virtuais dividem um único computador físico em vários computadores simulados. De uma maneira semelhante, as VLANs dividem uma única rede física em várias redes simuladas. Quando o tráfego de rede para várias VLANs flui pelo mesmo equipamento de rede, o equipamento mantém cada conjunto de tráfego separado de forma que cada computador na rede veja apenas o tráfego em suas próprias VLANs. Uma VLAN que requer o isolamento máximo deve ser implementada como uma rede local (LAN) separada.

As VLANs são definidas na rede pelo administrador da rede. Os computadores na rede e os aplicativos nesses computadores podem ser configurados para usar as VLANs desejadas para separar seu tráfego de rede, mas no final, é a configuração de rede que executa a separação.

VLANs no PureApplication System

O PureApplication System contém uma quantia significativa de hardware de rede, com um par de comutadores de rack superior como o hub, mas ele não hospeda sua própria rede. Assim como qualquer outro computador, o PureApplication System se conecta à rede corporativa existente e participa como parte dela.

O PureApplication System não define as VLANs, elas são definidas na rede pelo administrador da rede. Mas ele faz bastante uso das VLANs. O PureApplication System usa as VLANs de duas formas distintas, como uma VLAN de gerenciamento ou uma VLAN de aplicativo.

O VLAN de gerenciamento é usada internamente pelo sistema:

  • Comunicação: Essas VLANs permitem que os processos internos do sistema se comuniquem entre si.
  • Endereços IP: O sistema usa seus próprios endereços IP internos para que o administrador de rede não precise fornecer nenhum endereço IP. O administrador de rede ainda precisa reservar cada ID de VLAN na rede para que ela não crie outra VLAN com o mesmo ID.
  • Escopo: O tráfego nessas VLANs flui apenas internamente no sistema. Ele não está acessível (ou pelo menos não deve estar) de fora do sistema.

Uma VLAN de aplicativo é usada pelos aplicativos de negócios implementados no sistema como cargas de trabalho do usuário:

  • Comunicação: A VLAN permite que os aplicativos se comuniquem dentro de si mesmas, umas com as outras e com recursos na rede.
  • Endereços IP: O administrador de rede deve fornecer não apenas o ID de VLAN para cada uma dessas VLANs, mas também um conjunto de endereços IP que os aplicativos usam para se conectar à rede. O administrador de rede deve reservar o ID de VLAN e os endereços IP para que a rede não use esses valores em outro lugar.
  • Escopo: O tráfego em cada uma dessas VLANs flui internamente no sistema e externamente em qualquer parte da rede corporativa configurada para também usar a VLAN.

O PureApplication System em si requer três VLANs de gerenciamento e cada grupo de nuvem requer outra VLAN de gerenciamento. Cada grupo de IPs requer uma VLAN de aplicativo. Embora todos os grupos de IPs possam compartilhar a mesma VLAN, normalmente grupos de aplicativos diferentes usam VLANs separadas. A combinação adequada dos grupos de IPs e VLANs de aplicativo depende de como os administradores de rede e arquitetos desejam isolar o tráfego de rede dos aplicativos.

O sistema associa os aplicativos com VLANs usando grupos de IPs. Um administrador de carga de trabalho do sistema define cada grupo de IPs usando as configurações fornecidas pelo administrador de rede, incluindo qual VLAN usar. Ao implementar uma carga de trabalho em um grupo de nuvens, ou ele tem apenas um grupo de IPs para usar ou o implementador da carga de trabalho especifica qual grupo ou grupos de IPs usar para implementar a carga de trabalho. O processo de implementação designa endereços IP do grupo de IPs para as máquinas virtuais na carga de trabalho. O processo é responsável por garantir não apenas que as máquinas virtuais se conectem à rede usando os endereços IP adequados (conforme especificado no grupo de IPs), mas também usando a VLAN adequada. Contanto que os aplicativos estejam conectados usando a VLAN e os endereços IP adequados, o trabalho do sistema está pronto. É tarefa do administrador de rede garantir que as VLANs sejam definidas adequadamente na rede corporativa.


Virtualização dos recursos de armazenamento

Os recursos de armazenamento permitem que um programa de computador preserve seu estado para que ele possa ser descarregado do programa, passar por várias execuções do programa e ser compartilhado com outros programas. Normalmente os dados são empacotados como arquivos que são organizados pelo sistema de gerenciamento de arquivos, mas alguns programas, como bancos de dados, podem ser configurados para efetuar o bypass disso e gravar blocos de dados diretamente nas partições de disco brutas. Uma melhor prática para virtualizar o armazenamento para que os programas sejam separados de seu armazenamento é encapsular o armazenamento como uma rede de área de armazenamento.

Redes de área de armazenamento

O armazenamento pode ser virtualizado usando uma combinação de abordagens:

  • O armazenamento pode ser encapsulado em uma rede de área de armazenamento.
  • As camadas de armazenamento podem fornecer diversos níveis de qualidade de serviço.
  • O gerenciamento de armazenamento hierárquico pode otimizar o uso de camadas.
  • A mídia subjacente pode ser organizada como um Redundant Array of Independent Disks (RAID) para aumentar sua confiabilidade e desempenho.

Vamos explorar cada uma dessas abordagens mais detalhadamente.

O rede de área de armazenamento (SAN) é uma rede que interconecta os dispositivos de armazenamento em um conjunto encapsulado de armazenamento compartilhado. Uma SAN separa os aplicativos que precisam preservar dados de detalhes sobre como os dados são realmente armazenados. Uma SAN é como uma nuvem para preservar dados e arquivos. Você sabe que seus itens estão ali, mas não sabe precisamente onde ou como estão armazenados e eles podem ser movidos para outro lugar.

Um objetivo relacionado é armazenado como um serviço. Armazenamento como Serviço(SaaS, ou, para distinguir de software como serviço, STaaS) normalmente se refere a disponibilizar o espaço de armazenamento compartilhado para outras pessoas usarem conforme o necessário, como uma empresa de fornecimento de armazenamento cujos negócios consistem em alugar a capacidade a seus clientes. Também pode se referir a um conceito mais geral de conjunto de armazenamento para vários aplicativos compartilharem, alguns usando mais enquanto outros precisam de menos. O armazenamento compartilhado não precisa ser encapsulado como uma SAN, mas a interface da SAN faz com que o armazenamento seja mais fácil de gerenciar e compartilhar.

O armazenamento pode ser organizado em camadas. Tiered storage fornece diferentes conjuntos de armazenamento, cada um com uma qualidade de serviço (QoS) diferente. As diferentes qualidades normalmente resultam de diferentes tipos de mídia de armazenamento, como discos versus fitas, com alternativas de velocidade, custo, capacidade e recursos. A mídia de armazenamento tem uma relação inversa entre o custo e a velocidade, quanto mais rápido o acesso aos dados na mídia, maior é o custo por byte de dados armazenado. Alguns tipos de armazenamento têm uma capacidade maior ou recursos especiais, como queimar um CD. O armazenamento em camadas também pode diferenciar os requisitos de QoS dos dados a serem armazenados, criando uma política para armazenar os dados considerados mais importantes em mídias consideradas mais rápidas ou mais confiáveis.

Um conjunto de dados específico não precisa ficar permanentemente confinado em uma única camada. Hierarchical storage Management (HSM) é uma abordagem baseada na política de armazenamento de dados que otimiza para obter o melhor desempenho e o menor custo. Um exemplo simples é mover os dados históricos que raramente são usados para fitas de backup, um tipo de armazenamento que é mais lento, mas é menos caro do que as unidades de disco. O HSM faz pouco sentido quando a mídia de armazenamento é homogênea. Mais exatamente, ele aproveita de uma solução de armazenamento que contém vários tipos de mídia com alternativas de desempenho e preço divergente, como aquelas em uma solução de armazenamento em camadas. Com uma solução de armazenamento em camadas existente, o custo já é fixo, então o HSM otimiza o desempenho, normalmente ao determinar os dados usados com pais frequência e armazená-los na mídia mais rápida.

Mesmo a mídia de armazenamento mais confiável pode falhar, fazendo com que os dados fiquem temporariamente inacessíveis ou sejam permanentemente perdidos, o que pode ser um risco inaceitável para dados importantes. A melhor estratégia para minimizar esse risco é armazenar os dados de forma redundante. Um exemplo simples é criar backups. Uma abordagem mais contínua e automatizada é o sistema de armazenamento que automaticamente armazena cada bloco de dados duas vezes, cada um em uma parte diferente da mídia ou dispositivo, para que mesmo se um falar, o outro preserve os dados. O armazenamento redundante também pode ser usado para melhorar o desempenho, como a leitura de uma segunda cópia enquanto a mídia da primeira cópia está ocupada.

Uma abordagem popular para implementar o armazenamento com um desempenho melhorado e uma redundância integrada é o RAID. O armazenamento Redundant array of independent disks (RAID) combina várias unidades de disco para agirem como uma. O que faz o armazenamento RAID superior a uma simples coleção de discos é como os dados são armazenados. Um array normalmente incorpora a divisão em faixas, uma técnica para melhorar o desempenho segundo a qual o array divide um único conjunto de dados em uma série de segmentos e os distribui pelos discos como uma faixa para que eles possam ser acessados ao mesmo tempo. O array pode melhorar a confiabilidade ao armazenar os dados de forma redundante. A abordagem mais simples para a redundância é o espelhamento ou armazenar cada segmento duas vezes em dois discos diferentes, o que também pode ser usado para melhorar o desempenho.

Uma abordagem mais sofisticada é a paridade, que requer maiores cálculos, mas reduz a sobrecarga de armazenamento, segundo a qual o array armazena um segmento de paridade para uma faixa de forma que qualquer segmento que esteja perdido possa ser recriado. Em virtude da sobrecarga de armazenamento menor, a paridade não cria uma cópia que pode ser usada para melhorar o desempenho da mesma forma que o espelhamento cria.

O RAID tem várias abordagens chamadas níveis do RAID para organizar um conjunto de dados como blocos nos discos. Os níveis representam combinações padrão e implementações de divisão em faixas, espelhamento e paridade. O nível do RAID mais básico, o RAID 0, divide os dados em faixas, mas não os armazena de forma redundante. Isso melhora o desempenho e reduz a confiabilidade, em virtude do maior número de discos que podem falhar. O RAID 1 apenas espelha os dados sem dividi-los em faixas, essencialmente usando um disco para copiar o outro. A implementação do RAID mais popular é o RAID 5, que divide os dados em faixas em todos os discos, exceto em um, e cria um segmento de paridade no disco remanescente.

O artigo Standard RAID levels na Wikipédia® ilustra a aparência de uma matriz RAID 5, conforme mostrado na Figura 4. Nesse exemplo, o array contém quatro discos. Os dados são armazenados em quatro faixas, rotuladas de A a D. Cada faixa é armazenada em três segmentos, rotulados de 1 a 3, com um quarto segmento de paridade para redundância. Observe que o armazenamento para o segmento de paridade é alternado entre os discos para que cada disco armazene segmentos de dados para algumas faixas e segmentos de paridade para outras.

Figura 4. Segmentos de paridade e divisão em faixas de RAID 5
Segmentos de paridade e divisão em faixas de RAID 5

SAN no PureApplcation System

O armazenamento no PureApplication System é gerenciado por um cluster de quatro nós IBM Storwize® V7000, duas unidades de armazenamento e cada uma contém um nó de controlador e um nó de expansão. Um dos controladores gerencia o cluster e o outro age como um nó de expansão e controlador de backup. Os nós de controlador incluem o software do sistema de gerenciamento de armazenamento IBM System Storage Easy Tier. Cada nó contém quatro unidades de estado sólido (SSDs) de 400 GB e vinte unidades de disco rígido (HDDs) de 600 GB, fornecendo ao cluster a capacidade de armazenamento total de 6,4 TB de SSD e 48 TB de HDD (4,8 TB e 38,4 TB são utilizáveis).

O controlador gerencia o armazenamento como uma SAN que os nós de cálculo acessam através dos adaptadores de SAN. Consequentemente, os nós de cálculo e seus aplicativos não estão cientes de quantos nós ou unidades compõem o cluster de armazenamento. O armazenamento é dividido em duas camadas:

  • Camada de SSD genérica: Ela é composta por unidades de estado sólido, que são mais caras e tem menor capacidade, mas proporcionam o rendimento mais alto.
  • Camada de HDD genérica: Ela é composta pelas unidades de disco rígido. Em comparação com as SSDs, as HDDs têm uma capacidade maior e um custo menor, mas tempos de acesso mais lentos.

O Easy Tier gerencia essas camadas hierarquicamente com um recurso chamado posicionamento automático de dados que determina dinamicamente os dados usados com mais frequência e os armazenam nas SSDs em que podem ser acessados mais rapidamente do que nas HDDs. O cluster Storwize V7000 do PureApplication System organiza seu armazenamento como uma matriz RAID 5. O RAID suporta unidades de peça de reposição, que significa que quando uma das unidades na matriz RAID array falha, o sistema automaticamente substitui a unidade com falha pela a unidade de peça de substituição e recupera os dados na unidade perdida.

A solução de armazenamento no PureApplication System é bastante sofisticada e já chega pronta para uso completamente configurado. O armazenamento é configurado como uma SAN e o rack tem todos os cabos e adaptadores necessários posicionados para a rede de armazenamento. O armazenamento é dividido em camadas e gerenciado como uma hierarquia para otimizar o rendimento. Os dados são divididos em faixas para melhorias de desempenho adicionais e são armazenados de forma redundante para maior confiabilidade. Todos esses recursos de armazenamento e otimizações são gerenciados pelo sistema de forma que o cliente não precise de uma equipe para de administradores de armazenamento para configurar e realizar a manutenção do armazenamento.


Conclusão

Esse artigo explicou as melhores práticas que o PureApplication System usa para virtualizar seus recursos de hardware para obter a infraestrutura como serviço. Ele também mostrou como o PureApplication System faz uso das seguintes técnicas de virtualização:

  • Máquinas virtuais (VMs) para virtualizar os recursos computacionais
  • Redes locais virtuais (VLANs) para virtualizar os recursos de rede
  • Uma rede de área de armazenamento (SAN) para virtualizar os recursos de armazenamento

Esses recursos são desenvolvidos no produto e estão disponíveis desde o início, economizando tempo e mão de obra que de outra forma poderiam ser necessários para configurar o hardware e sua virtualização. Os recursos virtualizados integrados são uma das grandes vantagens do PureApplication System.

Agradecimentos

O autor gostaria de agradecer os seguintes IBMistas pela ajuda com esse artigo: José De Jesús, Hendrik van Run e Rohith Ashok.

Recursos

Comentários

developerWorks: Conecte-se

Los campos obligatorios están marcados con un asterisco (*).


Precisa de um ID IBM?
Esqueceu seu ID IBM?


Esqueceu sua senha?
Alterar sua senha

Ao clicar em Enviar, você concorda com os termos e condições do developerWorks.

 


A primeira vez que você entrar no developerWorks, um perfil é criado para você. Informações no seu perfil (seu nome, país / região, e nome da empresa) é apresentado ao público e vai acompanhar qualquer conteúdo que você postar, a menos que você opte por esconder o nome da empresa. Você pode atualizar sua conta IBM a qualquer momento.

Todas as informações enviadas são seguras.

Elija su nombre para mostrar



Ao se conectar ao developerWorks pela primeira vez, é criado um perfil para você e é necessário selecionar um nome de exibição. O nome de exibição acompanhará o conteúdo que você postar no developerWorks.

Escolha um nome de exibição de 3 - 31 caracteres. Seu nome de exibição deve ser exclusivo na comunidade do developerWorks e não deve ser o seu endereço de email por motivo de privacidade.

Los campos obligatorios están marcados con un asterisco (*).

(Escolha um nome de exibição de 3 - 31 caracteres.)

Ao clicar em Enviar, você concorda com os termos e condições do developerWorks.

 


Todas as informações enviadas são seguras.


static.content.url=http://www.ibm.com/developerworks/js/artrating/
SITE_ID=80
Zone=Cloud computing
ArticleID=936324
ArticleTitle=Melhores práticas usando a infraestrutura como serviço no IBM PureApplication System
publish-date=07082013