범용 중앙 처리 장치(CPU)나 그래픽 처리 장치(GPU)와는 달리 NPU는 스칼라, 벡터, 텐서 수학으로 구성된 신경망 레이어를 계산하는 등 AI 작업과 워크로드를 가속화하도록 맞춤화되어 있습니다.
AI 칩 또는 AI 가속기라고도 하는 NPU는 일반적으로 여러 프로세서(예: CPU와 GPU)를 결합하는 이기종 컴퓨팅 아키텍처 내에서 사용됩니다. 대규모 데이터센터에서는 시스템의 마더보드에 직접 연결된 독립형 NPU를 사용할 수 있지만, 스마트폰, 모바일 디바이스, 노트북 등 대부분의 소비자 애플리케이션에서는 시스템 온 칩(SoC)으로 알려진 단일 반도체 마이크로칩에 다른 코프로세서와 NPU가 결합되어 있습니다.
전용 NPU를 통합함으로써 제조업체는 상대적으로 낮은 전력 소비와 높은 처리량으로 생성형 AI 애플리케이션, AI 워크로드 및 기계 학습 알고리즘을 실시간으로 처리할 수 있는 온디바이스 생성형 AI 앱을 제공할 수 있습니다.
업계 뉴스레터
Think 뉴스레터를 통해 AI, 자동화, 데이터 등 가장 중요하고 흥미로운 업계 동향에 대한 최신 소식을 받아보세요. IBM 개인정보 보호정책을 참조하세요.
구독한 뉴스레터는 영어로 제공됩니다. 모든 뉴스레터에는 구독 취소 링크가 있습니다. 여기에서 구독을 관리하거나 취소할 수 있습니다. 자세한 정보는 IBM 개인정보 보호정책을 참조하세요.
신경 처리 장치(NPU)는 딥 러닝 알고리즘 처리, 음성 인식, 자연어 처리, 사진 및 비디오 처리,객체 감지 등 지연 시간이 짧은 병렬 컴퓨팅이 필요한 작업에 적합합니다.
NPU의 주요 기능은 다음과 같습니다.
뇌의 신경망을 기반으로 하는 신경 처리 장치(NPU)는 회로 계층에서 인간 뉴런과 시냅스의 동작을 시뮬레이션하여 작동합니다. 이를 통해 하나의 명령어로 가상 뉴런 세트의 처리를 완료하는 딥 러닝 명령어 집합을 처리할 수 있습니다.
기존 프로세서와 달리 NPU는 정밀한 계산을 위해 설계되지 않았습니다. 대신 NPU는 문제 해결 기능을 위해 특별히 설계되었으며 시간이 지남에 따라 다양한 유형의 데이터와 입력을 통해 학습하면서 성능이 향상될 수 있습니다. 머신 러닝을 활용하는 NPU를 통합한 AI 시스템은 수동 프로그래밍을 추가할 필요 없이 맞춤형 솔루션을 더 빠르게 제공할 수 있습니다.
뛰어난 기능으로 NPU는 뛰어난 병렬 처리 기능을 제공하며, 여러 유형의 작업을 수행하지 않아도 되는 간소화된 고용량 코어를 통해 AI 작업을 가속화할 수 있습니다. NPU에는 곱셈과 덧셈, 활성화 기능, 2D 데이터 연산 및 압축 해제를 위한 특정 모듈이 포함되어 있습니다. 특수 곱셈 및 덧셈 모듈은 행렬 곱셈 및 덧셈, 컨볼루션, 도트 곱셈 및 기타 기능 계산과 같은 신경망 애플리케이션 처리와 관련된 연산을 수행하는 데 사용됩니다.
기존 프로세서는 이러한 유형의 뉴런 처리를 완료하는 데 수천 개의 명령어가 필요하지만, NPU는 단 하나의 명령어로 유사한 연산을 완료할 수 있습니다. 또한 NPU는 네트워크 노드에 할당된 유동적인 계산 변수인 시냅스 가중치를 통해 스토리지와 계산을 통합하여 시간이 지남에 따라 조정되거나 '학습'될 수 있는 '올바른' 또는 '원하는' 결과의 확률을 나타내므로 운영 효율성이 향상됩니다.
NPU 개발이 계속 발전하는 동안 테스트 결과 일부 NPU 성능은 동일한 전력 소비로 GPU보다 100배 이상 뛰어난 것으로 나타났습니다.
신경 처리 장치(NPU)는 기존의 CPU와 GPU를 대체하도록 설계되지도 않았고, 대체할 것으로 예상되지도 않습니다. 그러나 NPU의 아키텍처는 두 프로세서의 설계를 개선하여 비교할 수 없을 정도로 효율적인 병렬 처리와 머신 러닝을 제공합니다. 일반적인 작업을 개선할 수 있지만 특정 유형의 일반 작업에 가장 적합한 NPU는 CPU 및 GPU와 결합할 경우 기존 시스템에 비해 몇 가지 중요한 이점을 제공합니다.
주요 이점은 다음과 같습니다.
고전적인 컴퓨터 과학의 세계에서 중앙 처리 장치(CPU)는 컴퓨터의 '두뇌'로 여겨집니다. CPU는 대부분의 전통적인 컴퓨팅 작업을 처리하며 광범위한 잠재적 애플리케이션을 담당합니다. 다양한 유형이 있지만 일반적으로 모든 CPU는 선형적인 순서로 작업을 수행하여 요청이 들어오는 순서대로 응답합니다.
1950년대부터 1990년대까지 CPU는 프로그램을 실행하고, 시스템을 제어하고, 입력/아웃풋(I/O)을 관리하기 위한 명령을 실행하여 거의 모든 컴퓨터 처리에 직결되었습니다.
까다로운 애플리케이션은 세대를 거듭할수록 CPU 설계를 하드웨어 한계까지 밀어붙여 종종 심각한 속도 저하 또는 시스템 장애를 일으켰습니다. 그러나 1980년대에 개인용 컴퓨터 게임과 컴퓨터 지원 설계(CAD)가 등장하면서 업계는 컴퓨터 그래픽을 렌더링할 수 있는 더 빠르고 효율적인 솔루션이 필요했습니다.
그래픽 처리 장치(GPU)는 처음에 메인 CPU의 까다로운 이미지 처리 작업을 오프로드하기 위해 만들어졌습니다. GPU는 선형 연산을 수행하는 데 더 적은 수의 코어를 사용하는 경향이 있지만, GPU는 대규모 작업을 여러 프로세서 및/또는 코어로 동시에 해결할 수 있는 작은 문제로 나누는 프로세스인 병렬 처리를 수행할 수 있는 수백 개에서 수천 개의 코어를 특징으로 합니다.
처음에는 비디오 및 이미지 처리 요구를 처리하기 위해 개발되었지만, GPU의 병렬 처리 기능으로 인해 블록체인 관련 작업 및 AI와 같은 다른 까다로운 컴퓨팅 애플리케이션에 고유하게 적합한 하드웨어가 되었습니다. GPU가 병렬 처리 또는 병렬 컴퓨팅을 수행할 수 있는 유일한 프로세서 유형은 아니지만, 병렬 처리에 매우 적합합니다. 그러나 GPU는 한계가 없는 것은 아니며 일반적으로 더 까다로운 작업을 실행하려면 매우 비싼 전력 소비가 필요합니다. GPU를 사용하면 성능이 향상되는 대신 에너지 비용이 증가합니다.
NPU 및 기타 AI 가속기는 더 효율적인 대안을 제공합니다. GPU의 고급 병렬 처리를 통합하고 개선한 NPU는 AI 작업을 위해 특별히 설계된 NPU는 더 낮은 전력 소비로 고성능을 제공합니다. 그리고 더 작은 물리적 설치 공간이라는 추가 보너스도 제공합니다.
새롭게 떠오르는 기술인 신경망 처리 장치는 Microsoft, Intel, Nvidia, Qualcomm, 삼성 등 많은 주요 컴퓨터 및 하드웨어 제조업체에서 독립형 신경 처리 장치(NPU)를 제공하거나 Apple 뉴럴 엔진과 같은 통합형 버전을 제공하고 있습니다.
NPU를 소비자급 전자 제품에 통합하면 이미지 인식 향상, AI 지원 카메라 최적화 등 화상 통화 시 배경을 더 잘 흐리게 하는 등 다양한 이점을 얻을 수 있습니다. NPU를 위한 몇 가지 추가 애플리케이션은 다음과 같습니다.
뛰어난 병렬 처리 및 자가 학습 기능을 갖춘 NPU는 웨어러블, 음성 비서, 스마트 가전 등 네트워크에 연결된 IoT 디바이스에 적합합니다.
AI와 머신 러닝은 에너지 자원을 최적화하려는 데이터 센터에 큰 도움이 되었습니다. 고성능의 에너지 효율적인 NPU는 클라우드 컴퓨팅을 위한 더 나은 리소스 관리를 제공하는 데이터센터에 엄청난 가치를 제공합니다.
드론이나 자율주행 자동차 및 트럭과 같은 자율주행 차량은 멀티미디어 센서 입력을 기반으로 더 빠르고 더 나은 경로 수정이 가능한 NPU의 실시간 처리 기능을 통해 큰 이점을 얻을 수 있습니다. 탁월한 병렬 처리 기능을 갖춘 NPU는 자율 주행 차량이 도로 표지판, 교통 패턴, 예상치 못한 장애물 등 빠르게 변화하는 입력을 해석하고 처리할 수 있도록 지원합니다.
머신 러닝과 컴퓨팅 비전이 필요한 작업을 능숙하게 처리하는 NPU는 로보틱스 산업 발전에 중요한 지원을 제공합니다. 홈 어시스턴트부터 자동화된 수술 도구에 이르기까지 AI 기반 로보틱은 NPU를 사용하여 환경을 감지하고 학습하며 반응하는 기능을 개발합니다.
IBM zSystems 메인프레임에서 오픈 소스 프레임워크와 도구를 사용하여 가장 귀중한 엔터프라이즈 데이터에 AI 및 머신 러닝을 적용할 수 있습니다.
IBM은 하이브리드 중심 설계 전략을 통해 기업 전체에 영향력을 가속화할 수 있는 AI 인프라 솔루션을 제공합니다.
IBM Consulting을 통해 기업 데이터의 가치를 극대화해 비즈니스에 이득이 되는 인사이트 중심의 조직을 구축하세요.