가속 컴퓨팅은 컴퓨팅 작업 속도를 높이기 위해 특별히 설계된 하드웨어와 소프트웨어를 사용하는 것을 의미합니다.
가속 컴퓨팅은 그래픽 처리 장치(GPU), 애플리케이션별 집적 회로(ASIC) 및 필드 프로그래밍 가능 게이트 어레이(FPGA)를 포함한 광범위한 하드웨어 및 소프트웨어(가속기라고도 함)에 의존합니다.
가속 컴퓨팅 솔루션은 기존 중앙 처리 장치(CPU)보다 더 빠르고 효율적으로 계산을 수행할 수 있기 때문에 많은 산업 분야에서 수요가 많습니다. CPU와 달리 가속기는 병렬 컴퓨팅에 의존합니다. 병렬 컴퓨팅은 작업을 순차적으로 처리하는 것이 아니라, 작은 문제로 나누어 동시에 해결하는 계산 문제 해결 방법입니다.
빠른 데이터 처리 속도 덕분에 가속 컴퓨팅은 인공 지능(AI), 생성형 AI, 머신 러닝(ML), 고성능 컴퓨팅(HPC)을 비롯한 여러 최첨단 기술과 애플리케이션의 발전에 필수적인 요소가 되었습니다. 오늘날 이는 Google, Amazon Web Services(AWS) 및 Microsoft를 포함하여 세계에서 가장 성공적인 많은 기술 회사의 전략의 핵심 구성 요소입니다.
중앙 처리 장치 또는 CPU는 컴퓨터의 운영 체제(OS)와 앱을 실행하는 다양한 전자 회로로 구성됩니다. 수년 동안 CPU는 데이터 입력을 정보 아웃풋으로 변환하는 컴퓨터의 두뇌 역할을 했습니다. 그러나 애플리케이션이 더욱 발전함에 따라 CPU가 관리할 수 있는 것보다 더 빠르고 효율적으로 데이터를 처리해야 했습니다. 병렬 처리 능력과 낮은 지연 시간 및 높은 처리량을 갖춘 가속기와 가속 컴퓨팅 기술이 등장했습니다. 처음 두각을 나타낸 1980년대 이후 컴퓨터 과학의 가장 큰 기술 발전 중 상당수는 가속기에 의존해 왔습니다.
가장 흥미로운 최신 비디오 게임과 몰입형 가상 현실(VR) 경험부터 ChatGPT, AI 모델의 학습, 빅데이터 분석에 이르기까지, 가속기는 빠르게 발전하고 초연결화되는 우리의 세계에서 필수적인 요소입니다. 많은 현대 기업들은 클라우드 컴퓨팅, 데이터 센터, 엣지 컴퓨팅, 대규모 언어 모델(LLM)을 비롯한 가장 중요한 애플리케이션과 인프라 아키텍처를 실행하기 위해 가속기에 의존합니다. 예를 들어, 생성형 AI를 탐색하고자 하는 기업 리더와 개발자는 데이터 센터를 최적화하고 더 많은 정보를 더 빠르게 처리하는 데 도움이 되는 가속기에 투자하고 있습니다1.
가속기는 다양한 비즈니스 애플리케이션에서 데이터 처리 속도를 높이기 위해 사용되며, 특히 5G 커버리지가 확대됨에 따라 사물인터넷(IoT)과 엣지 컴퓨팅 활용 가능성이 더욱 증가하고 있습니다. IoT 애플리케이션은 냉장고, 교통 흐름 센서 등과 같은 스마트 장치의 데이터를 처리하기 위해 가속기를 사용합니다. 엣지 컴퓨팅은 더 심층적인 인사이트, 더 빠른 응답 시간, 고객 경험을 제공할 수 있지만, 이는 가속기가 제공하는 처리 속도에서만 가능합니다.
AI의 경우, 자연어 처리(NLP), 컴퓨터 비전, 음성 인식과 같은 가장 발전된 애플리케이션들은 정상적으로 작동하기 위해 가속 컴퓨팅의 성능에 의존합니다. 예를 들어, 여러 최첨단 AI 애플리케이션을 뒷받침하는 신경망은 데이터를 고속으로 분류하고 군집화하기 위해 AI 가속기를 필요로 합니다.
마지막으로, 더 많은 기업이 디지털 방식으로 혁신하고 혁신을 가속화하는 방법을 모색함에 따라 가속 컴퓨팅 솔루션은 상대적으로 낮은 총 소유 비용을 제공합니다. 가속기는 대량의 데이터를 빠르고 정확하게 처리할 수 있기 때문에, AI 챗봇, 금융 데이터 분석, 클라우드 컴퓨팅 등을 비롯해 다양한 애플리케이션에서 비즈니스 가치를 창출할 잠재력을 가지고 활용될 수 있습니다.
가속 컴퓨팅은 하드웨어, 소프트웨어 및 네트워킹 기술의 조합을 사용하여 현대 기업이 최첨단 애플리케이션을 구동할 수 있도록 지원합니다. 가속기에 중요한 하드웨어 구성 요소에는 GPU, ASIC 및 FPGA가 포함됩니다. 소프트웨어와 애플리케이션 프로그래밍 인터페이스(API)도 마찬가지로 중요하며, CUDA와 OpenCL이 중요한 역할을 합니다.
마지막으로 PCI Express(PCIe) 및 NV 링크와 같은 네트워킹 솔루션은 처리 장치가 데이터가 보관되는 메모리 및 스토리지와 통신하는 데 도움이 됩니다. 다음은 하드웨어 가속기, 소프트웨어 가속기 및 네트워크 솔루션이 함께 작동하여 가속 컴퓨팅을 가능하게 하는 방법을 자세히 살펴보겠습니다.
최신 하드웨어 가속기는 병렬 처리 능력으로 인해 기존 CPU보다 훨씬 빠르게 데이터를 처리할 수 있습니다. 이러한 기능이 없었다면 가속 컴퓨팅의 가장 중요한 애플리케이션 중 상당수는 불가능했을 것입니다.
GPU
GPU(그래픽 처리 장치)는 비디오 카드, 시스템 보드, 모바일폰, 개인용 컴퓨터(PC) 등 다양한 장치에서 컴퓨터 그래픽과 이미지 처리를 가속하도록 설계된 하드웨어 가속기입니다.GPU 가속기는 컴퓨터가 여러 프로그램을 실행하는 데 필요한 시간을 크게 줄여줍니다. GPU 가속 컴퓨팅은 AI와 블록체인을 포함한 광범위한 가속 컴퓨팅 애플리케이션에 사용됩니다.
ASIC
ASIC(주문형 반도체)는 특정 목적이나 기능을 수행하도록 설계된 하드웨어 가속기로, 예를 들어 세계에서 가장 빠른 AI 가속기 중 하나로 평가되는 WSE-3 ASIC 가속기는 딥 러닝과 같은 특정 작업을 염두에 두고 제작된 사례입니다.2 일부 다른 하드웨어 가속기와 달리 ASIC은 다시 프로그래밍할 수 없습니다. 그러나 이러한 장치들은 단일 목적을 위해 설계되었기 때문에, 보다 범용적인 컴퓨팅 작업을 수행하도록 만들어진 가속기보다 일반적으로 더 뛰어난 성능을 발휘합니다. ASIC 가속기의 또 다른 예로는 Google의 자체 TensorFlow 소프트웨어에서 신경망 ML을 위해 개발된 Google의 Tensor Processing Unit(TPU)이 있습니다.
FPGA
필드 프로그래머블 게이트 어레이(FPGA)는 특정 목적에 맞게 재프로그래밍할 수 있는 전문 지식에 의존하는 고도로 사용자 정의 가능한 AI 가속기입니다. 다른 하드웨어 가속기와 달리 FPGA는 특정 기능에 적합한 고유한 설계를 가지고 있으며 종종 실시간 데이터 처리와 관련이 있습니다. FPGA는 하드웨어 수준에서 재프로그래밍이 가능하므로 더 높은 수준의 사용자 정의가 가능합니다. 항공 우주, IoT 애플리케이션 및 무선 네트워킹 솔루션에 자주 사용됩니다.
API와 소프트웨어는 가속 컴퓨팅 애플리케이션을 실행하는 데 필요한 하드웨어와 네트워크 간의 인터페이스를 통해 가속기가 작동하도록 하는 데 중요한 역할을 합니다.
API
API 또는 애플리케이션 프로그래밍 인터페이스는 애플리케이션이 통신하고 데이터를 교환할 수 있도록 하는 규칙의 집합입니다. API는 가속 컴퓨팅에 매우 중요하며 애플리케이션 간에 데이터, 서비스 및 기능을 통합하는 데 도움이 됩니다. 이는 개발자가 다른 애플리케이션의 데이터, 서비스 및 기능을 통합하고 조직 전체에서 공유할 수 있도록 하여 애플리케이션 및 소프트웨어 개발을 단순화하고 가속화합니다. API는 하드웨어와 소프트웨어 가속기 간의 데이터 흐름을 최적화하고 개발자에게 앱 및 소프트웨어 개발에 중요한 소프트웨어 라이브러리에 대한 액세스를 제공합니다.
CUDA
2007년 NVIDIA에서 구축한 CUDA(Compute Unified Device Architecture)는 개발자가 NVIDIA GPU의 병렬 계산 기능에 직접 액세스할 수 있도록 하는 소프트웨어입니다. CUDA는 코더가 이전보다 훨씬 더 광범위한 기능에 GPU 기술을 사용할 수 있도록 지원합니다. 그 이후로 CUDA를 통해 가능했던 것을 기반으로 GPU 하드웨어 가속기는 훨씬 더 많은 능력을 갖추게 되었습니다. 가장 중요한 능력으로는 카메라에서 빛의 방향을 추적하여 컴퓨터 이미지를 생성하는 레이 트레이싱과 DL을 가능하게 하는 텐서 코어가 있습니다.
OpenCL
OpenCL은 병렬 컴퓨팅을 위해 설계된 오픈 소스 플랫폼으로, GPU와 FPGA를 포함한 다양한 종류의 하드웨어 가속기를 지원합니다. 높은 호환성으로 인해 가속 컴퓨팅 워크로드에서 다양한 유형의 구성 요소를 사용해야 하는 개발자에게 이상적인 툴입니다. OpenCl 사용 사례의 예로는 게임, 3D 모델링 및 멀티미디어 제작이 있습니다.
네트워킹 기술은 가속화된 컴퓨팅에 매우 중요하며, 데이터가 저장되는 다양한 처리 장치와 메모리 및 스토리지 간의 빠르고 효과적인 통신을 가능하게 합니다. 다음은 가속 컴퓨팅이 의존하는 다양한 유형의 네트워킹 중 일부입니다.
이더넷
이더넷은 데이터 센터의 서버 간(또는 동일한 물리적 공간에 있는 컴퓨터 간에) 빠르고 유연한 데이터 전송을 제공하는 데 널리 사용되는 일종의 기술입니다. 널리 퍼져 있고 저렴하지만 NVLink 또는 InfiniBand와 같은 다른 종류의 네트워킹만큼 빠르지는 않습니다.
PCI Express(PCIe)
PCIe는 두 장치를 외부 메모리 소스와 연결하는 고속 컴퓨터 확장 버스입니다. 가속기는 PCIe를 사용하여 GPU 또는 다른 종류의 하드웨어 가속기를 중앙 컴퓨팅 시스템에 연결합니다.
NVLink
NVLink는 NVIDIA의 독점 상호 연결 기술이며 PCIe보다 훨씬 더 높은 대역폭을 제공할 수 있습니다. GPU와 다른 장치 간에 매우 효율적인 데이터 공유를 가능하게 하도록 제작되었습니다.
InfiniBand
InfiniBand는 데이터 센터의 상호 연결된 서버, 스토리지 또는 기타 장치에서 스위치 패브릭 아키텍처를 정의하는 통신 사양입니다. InfiniBand Trade Association에서 구축한 이 기술은 높은 성능과 짧은 대기 시간으로 구별되어 고성능 워크로드에 이상적입니다.
Computer Express Link(CXL)
CXL은 여러 인터페이스를 단일 PCIe 연결로 결합하여 대기 시간을 줄이고 CPU와 가속기 간의 대역폭을 늘리는 데 도움이 되는 개방형 Interconnect 표준입니다.
AI 기술의 확산과 빠른 데이터 전송을 가능하게 하는 5G 네트워크의 확장으로 인해 가속 컴퓨팅 사용 사례의 수가 나날이 증가하고 있습니다. 다음은 가장 일반적인 몇 가지 예입니다.
인공 지능(AI)과 그 수많은 비즈니스 활용 사례들은 GPU나 ASIC과 같은 가속기가 없다면 가능하지 않습니다. 이러한 가속 컴퓨팅 장치를 사용하면 컴퓨터가 기존 CPU보다 매우 복잡한 계산을 더 빠르고 효율적으로 수행할 수 있습니다. IBM의 클라우드 네이티브 AI 슈퍼컴퓨터 Vela와 같은 액셀러레이터는 점점 더 큰 데이터 세트에서 AI 모델을 학습하는 능력에 의존하는 많은 주요 애플리케이션을 지원합니다.
머신 러닝(ML)과 딥 러닝(DL)은 데이터와 알고리즘을 사용하여 인간이 학습하고 결정하는 방식을 모방하는 AI의 한 분야로, 모두 액셀러레이터의 데이터 처리 능력에 의존합니다. 가속 컴퓨팅은 인간의 두뇌와 유사한 방식으로 데이터에서 추론을 수행하는 딥 러닝 모델을 학습하는 데 힘을 실어줍니다.
비즈니스 네트워크에서 거래를 기록하고 자산을 추적하는 데 사용되는 인기 있는 원장인 블록체인은 가속 컴퓨팅에 크게 의존합니다. 거래를 검증하고 블록체인에 추가하는 중요한 단계인 작업 증명(PoW)은 가속기에 의존합니다. 예를 들어 암호화폐에서 PoW는 적절한 장비를 가진 누구나 비트코인과 같은 암호화폐를 채굴할 수 있음을 의미합니다.
가속기는 사물인터넷(IoT) 애플리케이션에서 생성된 대규모 데이터 세트를 직렬 처리 기능을 갖춘 CPU보다 훨씬 더 효율적으로 처리합니다. IoT는 처리를 위해 지속적으로 데이터를 수집하는 인터넷에 연결된 장치에 의존합니다. 하드웨어 가속기인 GPU와 같은 가속기는 자율 주행 자동차 및 교통 및 날씨를 모니터링하는 시스템과 같은 IoT 애플리케이션을 위해 데이터를 신속하게 처리하는 데 도움이 됩니다.
엣지 컴퓨팅은 엔터프라이즈 애플리케이션을 데이터 소스와 더 가까운 위치에서 실행하도록 하는 분산 컴퓨팅 프레임워크이며, 정상적으로 동작하기 위해 가속기에 크게 의존합니다. 5G 연결의 확장으로 인해 데이터 세트가 기하급수적으로 증가했습니다. 병렬 처리 기능을 갖춘 가속 컴퓨팅은 기업이 인사이트 확보 시간 단축, 응답 시간 개선, 대역폭 개선 등 엣지 컴퓨팅의 모든 가능성을 활용할 수 있도록 지원합니다.
IBM Spectrum LSF Suites는 분산형 고성능 컴퓨팅(HPC)을 위한 워크로드 관리 플랫폼 및 작업 스케줄러입니다.
IBM 하이브리드 클라우드 HPC 솔루션은 대규모의 컴퓨팅 집약적 문제를 해결하고 인사이트를 얻는 시간을 단축하는 데 도움이 됩니다.
비즈니스 요구에 적합한 클라우드 인프라 솔루션을 찾고 필요에 따라 리소스를 확장하세요.
1. GPUs Force CIOs to Rethink the Datacenter, Information Week, 2024년 4월 23일.
2. Gigantic AI CPU has almost one million cores, Tech Radar, 2024년 3월 16일.