데이터, 트레이닝 및 추론을 위한 AI 서버 인프라
인공지능(AI)은 데이터 준비에서부터 정제된 트레이닝 모델에 이르기까지 데이터 중심의 워크로드를 처리할 수 있도록 특수 제작된 서버를 필요로 합니다.
인공지능(AI)은 데이터 준비에서부터 정제된 트레이닝 모델에 이르기까지 데이터 중심의 워크로드를 처리할 수 있도록 특수 제작된 서버를 필요로 합니다.
귀사의 데이터 센터에는 AI의 모든 이점을 활용할 수 있는 인프라가 필요합니다.
트레이닝과 추론의 차이점과 더불어 두 가지 형태의 AI 처리에 전용 리소스가 필요한 이유를 알아보세요.
비즈니스 의사결정에 대한 신뢰도를 높일 수 있는 정확한 모델 결과를 얻을 수 있습니다.
업계에서 테스트되고 검증된 동적 툴을 사용하여 모든 리소스, 인력, 프로세서 및 프로세스에서 생산성을 높일 수 있습니다.
높은 데이터 처리량, AI 지원 모델 최적화 및 IBM Research의 지원으로 최첨단 AI 기술을 사용할 수 있습니다.
Power Systems 및 IBM이 보호하는 오픈 소스 프레임워크의 보안으로 안전한 AI 솔루션을 구축할 수 있습니다.
IBM Power System LC922 서버는 AI 데이터 및 워크로드 요구사항을 충족시키도록 설계되었습니다. 풍부한 스토리지 설계로 데이터를 분석하고 탐색하는 업계 최고의 컴퓨팅과 이를 포함할 수 있는 방대한 스토리지 용량을 제공합니다.
IBM Power System IC922 추론 서버는 AI 모델을 작동시키고 비즈니스 인사이트를 얻을 수 있도록 제작되었습니다. 이는 최적화된 하드웨어와 소프트웨어를 사용하여 데이터에서 인사이트를 이끌어 낼 AI 추론의 필수 컴포넌트를 제공합니다.
소프트웨어와 하드웨어의 이 강력한 조합은 모델 트레이닝 시간을 줄이고 반복을 가속화하며 인사이트를 개선할 수 있습니다.
3.7x
Caffe¹를 위한 더 빠른 트레이닝
46x
snapML을 이용한 머신 러닝 반복 속도 향상²
IBM AI 스타터 킷에는 트레이닝 모델을 시작하고 IBM AI 서버로 귀중한 인사이트를 발견하는 데 필요한 모든 것이 포함되어 있으며, 다음과 같은 툴을 구현하는 데 도움이 되는 인적 지원도 포함되어 있습니다.
IBM은 Power Systems로 작동되는 AI 인프라의 계획을 지원하기 위해 활용할 수 있는 수 년간의 경험을 지닌 숙련된 고도의 기술 전문 컨설턴트를 보유하고 있습니다.
이 Gartner 단독 보고서에서, 오늘날 고위 임원들이 AI에 대한 투자를 위해 탄탄한 비즈니스 사례를 만들 수 있는 방법을 알아봅니다.
AI 애플리케이션에서는 일반 CPU의 능력을 넘어서는 강력한 처리 능력이 필요하며, 이는 해당 니즈에 맞게 확장이 필요함을 의미합니다.
송유관의 누출은 환경에 막대한 피해를 줄 수 있습니다. 잠재적으로 위험한 누출이 발생하기 전에 AI로 이를 어떻게 발견했는지 알아봅니다.
Elinar는 기업 콘텐츠 관리 솔루션에 대한 AI의 중단 가능성을 확인하고 IBM Power 인프라를 배치한 얼리 어답터로서 출시 시간을 단축하고 새로운 고객을 유치하는 데 성공했습니다.
Dez Blanchfield는 AI 전략에 대한 AI 리더들의 계획을 알아보기 위해 비즈니스 리더들과 인공 지능 및 딥 러닝 채택에 대해 논의합니다.
오늘날 기업은 경쟁 우위를 확보하기 위해 AI를 이용하고 있습니다. 조직에서 AI를 사용하여 새롭고 보다 효과적인 고객 관리를 제공하는 방법을 알아보세요.
AI 인프라는 AI로 향하는 여정에서 반드시 필요합니다. 데이터 스토리지에서부터 테스트 및 원시 컴퓨팅 기능에 이르기까지 기업들은 AI에서 성공할 수 있도록 지원하는 솔루션이 필요합니다.
데이터 파이프라인 구축은 AI 인프라의 한 가지 중요한 측면입니다. 엔터프라이즈 AI의 데이터 집약적 요구사항을 지원하기 위해, 기업들은 데이터 수집 시점에서 데이터 추론에 이르까지의 모든 과정에서 최적화된 안정적인 스토리지 솔루션을 필요로 합니다.
¹ 결과는 Enlarged Imagenet Dataset(2240x2240)에서 Enlarged GoogleNet 모델(최소 배치 크기 = 5)을 1000회 반복 실행한 IBM 내부 측정을 기반으로 합니다. Power AC922; 40 코어(2 x 20c 칩), POWER9(NVLink 2.0 포함), 2.25GHz, 1024GB 메모리, 4xTesla V100 GPU, Red Hat Enterprise Linux 7.4 for Power Little Endian (POWER9)(CUDA 9.1/CUDNN 7포함) 경쟁 스택: 2x Xeon E5-2640 v4, 20 코어(2 x 10c 칩) / 40 스레드, Intel Xeon E5-2640 v4, 2.4GHz, 1024GB 메모리, 4xTesla V100 GPU, Ubuntu 16.04(CUDA .9.0/CUDNN 7 포함) 소프트웨어: LMS 소스 코드를 사용한 IBM Caffehttps://github.com/ibmsoe/caffe/tree/master-lms(ibm.com 외부 링크)
² 46xSnapML(ibm.com 외부 링크). 새로 공개된 벤치마크에서는 Criteo Labs(ibm.com 외부 링크)에서 릴리스한 온라인 광고 데이터 세트를 40억 개 이상의 트레이닝 예제와 함께 사용하여 91.5초 만에 로지스틱 회귀 분류기를 트레이닝합니다. 이 트레이닝 시간은 이전에 보고된 최상의 결과보다 46배 빠르며(https://cloud.google.com/blog/products/gcp/using-google-cloud-machine-learning-to-predict-clicks-at-scaleibm.com 외부 링크), Google Cloud Platform의 TensorFlow에서는 동일한 모델을 트레이닝하는 데 70분이 소요되었습니다.