Wyróżnione funkcje

IBM Spectrum Scale RAID

Sprawia, że odbudowa zawartości uszkodzonych dysków jest kwestią minut, a nie godzin, dzięki wykorzystaniu techniki RAID z rozgrupowaniem (declustered). Natomiast zastosowanie kodu odtwarzającego zamiast replikacji danych zmniejsza zapotrzebowanie na fizyczną przestrzeń dyskową.

Zunifikowana pamięć masowa

W jednej puli konsoliduje pamięć masową do zastosowań plikowych, obiektowych i dla wielkich zbiorów danych oraz umożliwia nowym aplikacjom korzystającym z interfejsów obiektowych lub HDFS wykorzystanie uproszczonego zarządzania danymi plikowymi.

Analizowanie dużych ilości danych i zarządzanie nimi

IBM Spectrum Discover to nowoczesne oprogramowanie do zarządzania metadanymi, które umożliwia analizowanie danych przechowywanych w nieustrukturyzowanych pamięciach masowych o wielkości liczonej w petabajtach. Nawiązuje ono połączenie z rozwiązaniem IBM Spectrum Scale lub IBM Cloud Object Storage, by dynamicznie wczytywać, konsolidować i indeksować metadane z miliardów plików i obiektów, umożliwiając administratorom pamięci masowych oraz administratorom i analitykom danych skuteczne wydobywanie z ogromnych ilości nieustrukturyzowanych danych cennych informacji, ich klasyfikowanie i sprawne zarządzanie nimi.

Prawdziwa skalowalność wszerz

System umożliwia liniowe skalowanie wydajności, pojemności liczby plików i liczby obiektów z automatycznym równoważeniem obciążenia i unika wąskich gardeł w sieci NAS poprzez wykorzystanie równoległego systemu plików.

Współużytkowanie i współpraca na globalną skalę

Dane mogą być współużytkowane między geograficznie rozproszonymi ośrodkami, nawet za pośrednictwem połączeń sieciowych o niskim stopniu niezawodności. Mechanizm aktywnego zarządzania plikami (AFM — active file management) buforuje dane z wielu odległych ośrodków, pozwalając na uzyskanie wydajności podobnej, jak w środowiskach lokalnych.

Konektor Hadoop

Aplikacje Hadoop i Spark korzystają bezpośrednio z aplikacyjnych interfejsów programistycznych (API) HDFS. IBM ESS stwarza warunki do szybkich i niezawodnych analiz danych, eliminując konieczność przenoszenia i adaptacji do specjalnej pamięci masowej Hadoop. Wiele źródeł danych łączy w jeden widok HDFS odpowiedni dla aplikacji biznesowych.

Jakość usług pod kontrolą: zarządzanie poziomami pamięci masowej i kompresja

System automatycznie przenosi dane między poziomami pamięci masowej, w tym pamięciami taśmowymi i chmurowymi, zgodnie z przyjętymi strategiami. Eliminuje to konieczność ponoszenia kosztów na niepotrzebną pojemność najwydajniejszych pamięci masowych.

Integracja i modularność

Serwer umożliwia szybkie wdrożenie pierwszego rozwiązania i dodawanie kolejnych bloków pamięci masowej w odpowiedzi na nowe potrzeby. IBM ESS jest systemem zaprojektowanym z myślą o wysokiej dostępności i zrównoważonym pod kątem przepustowości. Wybierając ESS, unikasz ryzyka i komplikacji charakterystycznych dla innych rozwiązań i na całym świecie możesz korzystać z jednego źródła wsparcia dla sprzętu i oprogramowania.

Certyfikat HortonWorks

Rozwiązanie Elastic Storage Server z pamięcią masową all-flash jest w pełni certyfikowane przez Hortonworks i idealnie nadaje się do implementacji środowisk Hadoop, Spark i innych systemów do analizy wielkich zbiorów danych. Zdolność serwera do bezpośredniej obsługi pamięci plikowych, obiektowych i HDFS istotnie redukuje narzut na zarządzanie danymi i przyspiesza dostęp do wyników.

Więcej informacji o rozwiązaniu IBM Elastic Storage Server

Przeczytaj charakterystykę rozwiązania

Zobacz także

IBM Spectrum Storage Suite

Uproszczenie migracji infrastruktury pamięci masowej wspierającej Twoją firmę

Dowiedz się więcej

IBM Spectrum Scale

Zaawansowane zarządzanie przechowywaniem danych nieustrukturyzowanych

Dowiedz się więcej

IBM Cloud Object Storage: Public

Efektywna obsługa coraz większej ilości nieustrukturyzowanych danych.

Dowiedz się więcej

IBM Storage Insights

Optymalizacja infrastruktury pamięci masowej i rozlokowania danych

Dowiedz się więcej

Kup teraz i postaw pierwszy krok