업계 뉴스레터
전문가의 인사이트를 바탕으로 한 최신 기술 뉴스
Think 뉴스레터를 통해 AI, 자동화, 데이터 등 가장 중요하고 흥미로운 업계 동향에 대한 최신 소식을 받아보세요. IBM 개인정보 보호정책을 참조하세요.
구독한 뉴스레터는 영어로 제공됩니다. 모든 뉴스레터에는 구독 취소 링크가 있습니다. 여기에서 구독을 관리하거나 취소할 수 있습니다. 자세한 정보는 IBM 개인정보 보호정책을 참조하세요.
소프트웨어 개발의 기술 스택(또는 기술 스택)과 유사하게, AI 스택은 효율적이고 확장 가능한 AI 구현을 위해 함께 작동하는 계층으로 요소를 구성합니다. 이러한 계층적 접근 방식은 AI 솔루션 구축의 복잡한 프로세스를 관리 가능한 구성 요소로 세분화하여 팀이 더 큰 그림을 놓치지 않고 개별 측면에 집중할 수 있도록 합니다.
스택의 각 계층은 데이터 처리에서 모델 배포에 이르기까지 특정 기능을 나타내므로 종속성을 쉽게 식별하고 리소스를 할당하며 문제를 체계적으로 해결할 수 있습니다. 이 모듈식 보기는 특히 여러 분야의 팀에서 작업할 때 다양한 구성 요소가 상호 작용하는 방식에 대한 이해를 공유하므로 명확성을 높여줍니다.
다양한 AI 애플리케이션은 AI 스택의 여러 계층에 영향을 미칩니다. 예를 들어, Red Hat OpenShift은 AI 스택의 거의 모든 계층에서 사용되는 컨테이너화된 애플리케이션을 대규모로 관리하도록 설계된 엔터프라이즈 Kubernetes 플랫폼입니다.
AI 분야의 다양한 플레이어는 구성 요소를 다른 순서로 배열하거나 다른 구성 요소나 기능을 강조하는 등 AI 스택을 다르게 구성합니다. 이는 AI에 대한 접근 방식이 사용 사례 수준과 조직 수준 모두에서 다양할 수 있기 때문입니다. 또한 AI 개발 환경은 끊임없이 진화하고 있습니다.
다음은 엔터프라이즈 AI 스택의 일반화된 버전입니다. IBM의 생성형 AI 기술 스택을 보면 생성형 인공 지능(gen AI) 및 대규모 언어 모델(LLM)(OpenAI 의 GPT를 생각해 보세요)에 대한 IBM의 접근 방식에 대해 자세히 알아볼 수 있습니다.
업계 뉴스레터
Think 뉴스레터를 통해 AI, 자동화, 데이터 등 가장 중요하고 흥미로운 업계 동향에 대한 최신 소식을 받아보세요. IBM 개인정보 보호정책을 참조하세요.
구독한 뉴스레터는 영어로 제공됩니다. 모든 뉴스레터에는 구독 취소 링크가 있습니다. 여기에서 구독을 관리하거나 취소할 수 있습니다. 자세한 정보는 IBM 개인정보 보호정책을 참조하세요.
데이터를 처리하려면 물리적 하드웨어가 필요합니다. 칩은 AI 워크로드에 최적화될 수 있습니다.AI 가속기라고 하는 GPU, CPU 및 TPU와 같은 높은 성능의 처리 장치는 복잡한 모델의 학습 시간을 크게 줄여줍니다. 또한, 분산 컴퓨팅은 대규모 언어 모델과 같은 최첨단 리소스 집약적 시스템의 개발을 가능하게 합니다.
클라우드 서비스 플랫폼(예: AWS, Microsoft Azure, Google Cloud 및 IBM Cloud)은 리소스를 확장하거나 축소할 수 있는 유연성을 제공하여 모든 규모의 기업이 액세스할 수 있게 하며, 엣지 컴퓨팅은 원격 또는 저대역폭 환경에서 실시간 의사 결정을 지원합니다. 컴퓨팅 계층은 오케스트레이션 툴과 긴밀하게 통합되어 리소스 할당을 최적화하고 비용 효율성을 보장하는 데 도움이 됩니다.
물리적 스토리지 시스템은 원시 데이터 세트부터 모델 가중치와 로그까지 AI 수명 주기 전반에 걸쳐 사용되는 엄청난 양의 데이터를 처리해야 합니다. 고성능 스토리지 솔루션을 사용하면 빠른 데이터 접근이 가능하며, 이는 딥 러닝 모델을 학습하는 것과 같은 계산 집약적인 작업에 필수적입니다.
확장성은 HDFS와 같은 분산 파일 시스템이나 증가하는 데이터 수요를 지원하는 객체 스토리지 시스템(Amazon S3)의 또 다른 주요 기능입니다. 이러한 시스템은 종종 계층화된 스토리지 전략을 사용하여 자주 액세스하는 데이터는 고속 미디어에 보관하고 덜 사용되는 데이터는 더 느리고 비용 효율적인 솔루션에 보관합니다.
강력한 백업 및 복구 메커니즘은 로컬 및 클라우드 스토리지 옵션을 결합하여 장애로부터 데이터를 보호함으로써 데이터 복원력을 더욱 강화합니다.
AI는 최소한의 지연 시간으로 한 장소에서 다른 장소로 많은 양의 데이터를 이동하는 작업을 포함하는 경우가 많습니다. 네트워킹은 다양한 인프라 구성 요소를 연결하여 스토리지를 보완하여 원활한 데이터 전송 및 협업을 가능하게 합니다.
이것은 AI 스택의 또 다른 기본 부분으로, AI 모델을 위한 데이터를 수집, 저장 및 준비하는 데 중점을 둡니다. 여기에는 데이터베이스, 데이터 레이크, 데이터 웨어하우스가 포함됩니다. 데이터 과학자는 데이터 관리 계층의 일부인 데이터 수집, 정리 및 사전 처리를 위해 다양한 도구를 사용합니다.
고품질의 잘 준비된 데이터를 사용하면 모델이 효과적으로 학습하여 더 나은 예측과 의사 결정을 내릴 수 있습니다. 반대로 품질이 낮거나 편향된 데이터는 AI 모델의 정확성과 공정성을 떨어뜨려 최적의 결과를 도출하지 못할 수 있습니다. 강력한 데이터 계층에 투자함으로써 조직은 성공적인 AI 구현을 위한 발판을 마련할 수 있습니다.
구조화된 데이터베이스, 구조화되지 않은 텍스트 파일, 이미지, IoT 장치, 애플리케이션 프로그래밍 인터페이스(API) 또는 사용자 상호 작용 등 다양한 소스에서 데이터를 수집할 수 있습니다. 스토리지 인프라는 대량의 다양한 데이터를 처리하는 동시에 안정성과 접근성을 유지할 수 있어야 합니다.
기술에는 정형 및 비정형 데이터를 처리하기 위한 관계형 데이터베이스(예: MySQL 및 PostgreSQL), NoSQL 데이터베이스(예: MongoDB 및 Cassandra), 데이터 레이크(예: Hadoop) 등이 있습니다.
수집에는 다양한 소스에서 스토리지 시스템으로 데이터를 가져오는 작업이 포함됩니다. Apache Kafka와 같은 도구는 데이터 수집 파이프라인을 자동화하고 관리하여 데이터가 시스템으로 원활하게 이동하도록 보장하는 데 도움이 됩니다.
원시 데이터를 AI 모델에 사용하기 전에 정리, 정규화 및 변환이 필요한 경우가 많습니다. 여기에는 중복 제거, 누락된 값 채우기, 형식 표준화, 범주형 변수 인코딩 등이 포함됩니다.
프로그래밍 언어 Python은 이러한 목적으로 무료 라이브러리를 제공하며, Pandas, NumPy 또는 Apache Spark 와 같은 도구도 전처리에 일반적으로 사용됩니다.
여기에서는 AI 모델을 설계하고, 훈련하고, 미세 조정하여 특정 문제를 해결하고 AI 시스템의 핵심 기능과 지능을 결정합니다. 처리 및 정제된 데이터를 사용하여 패턴을 학습하고 예측을 수행하거나 아웃풋을 생성할 수 있는 알고리즘을 학습함으로써 데이터 계층을 기반으로 구축됩니다.
또한 이 계층은 데이터 계층과 피드백 루프를 설정하여 새 데이터를 사용할 수 있게 되면 재학습 및 개선을 가능하게 합니다. 이 계층은 시스템이 실제 애플리케이션에서 얼마나 잘 수행되는지를 정의하므로 AI 라이프사이클의 핵심입니다.
최적의 성능을 달성하려면 올바른 머신 러닝 알고리즘을 선택하는 것이 중요합니다. 알고리즘은 간단한 작업을 위한 선형 회귀 및 의사결정 트리부터 신경망 및 트랜스포머와 같은 복잡한 아키텍처까지 다양합니다. 선택은 데이터 유형, 문제 영역 및 계산 제약 조건을 포함한 요인에 따라 달라집니다.
학습에는 패턴과 관계를 학습할 수 있도록 레이블이 지정된 데이터를 모델에 공급하는 작업이 포함됩니다. 이 단계에는 복잡한 모델을 위한 상당한 계산 리소스가 필요합니다. 학습 과정에는 하이퍼매개변수(예: 학습률, 배치 크기)를 설정하고 경사 하강법과 같은 기술을 사용하여 모델을 반복적으로 최적화하는 과정이 포함됩니다.
특징 엔지니어링은 원시 데이터를 모델의 의미 있는 입력값으로 변환합니다. 이 단계에는 크기 조정, 인코딩, 차원 축소 또는 새 파생 기능 생성이 포함될 수 있습니다.
BERT 및 ResNet과 같은 사전 학습된 모델을 사용하면 개발 시간과 계산 비용을 크게 줄일 수 있습니다. 전이 학습은 최소한의 추가 교육만으로 이러한 모델을 새로운 작업에 맞게 조정합니다.
모델이 개발된 후에는 배포하기 전에 최적화 및 미세 조정이 필요한 경우가 많습니다. 여기에는 하이퍼매개변수 조정, 모델 압축 및 모델 유효성 검사가 포함될 수 있습니다.
배포 전에 모델은 정확도, 정밀도, 리콜 및 F1 점수를 포함한 성능 메트릭을 측정하기 위해 별도의 검증 및 테스트 데이터 세트를 사용하여 평가됩니다. 이 단계는 모델이 제대로 일반화되고 보이지 않는 데이터에서도 안정적으로 수행되도록 하는 데 도움이 됩니다.
모델 배포 계층은 머신 러닝 모델을 개발에서 실제 사용으로 변경하여 실제 환경에서 예측 또는 추론을 제공하는 계층입니다.
배포에는 모델을 배포 가능한 형식으로 패키징하는 작업이 포함되며, 종종 컨테이너화 기술을 사용하여 다양한 환경 전반에서 일관성과 이식성을 향상시킵니다. 그런 다음 오케스트레이션 플랫폼을 사용하여 이러한 컨테이너를 관리하고 확장하여 로드 밸런싱, 내결함성 및 고가용성을 구현할 수 있습니다.
배포된 모델은 일반적으로 TensorFlow Serving, NVIDIA Triton 또는 맞춤형 솔루션과 같은 프레임워크를 사용하는 API 또는 마이크로서비스를 통해 노출되므로 비즈니스 시스템, 모바일 앱 또는 웹 플랫폼과 원활하게 통합할 수 있습니다.
애플리케이션 계층은 AI 모델이 실제 시스템에 통합되어 실행 가능한 인사이트를 제공하고 의사 결정을 촉진하는 곳으로, AI 스택에서 가장 사용자가 대면하는 부분입니다. 이 계층은 AI 기능을 소프트웨어 애플리케이션, 제품 및 서비스에 포함합니다.
이 단계에서 AI 모델은 비즈니스 로직의 일부가 되어 작업을 자동화하고, 워크플로를 개선하거나 추천 시스템, 예측 분석, 자연어 처리 또는 컴퓨팅 비전과 같은 지능형 기능을 강화합니다. 이러한 기능은 일반적으로 API를 통해 접근하거나 마이크로서비스에 내장되어 애플리케이션 에코시스템의 다른 구성 요소와의 원활한 상호 작용을 촉진합니다.
애플리케이션 계층의 핵심 초점은 사용성입니다. AI 기능은 시각화 및 기타 프레젠테이션을 사용하여 명확하고 해석 가능한 방식으로 정보를 전달하여 사용자가 AI 기반 통찰력을 이해하고 그에 따라 행동할 수 있도록 하는 직관적인 사용자 인터페이스(UI)로 포장되는 경우가 많습니다.
예를 들어 사기 탐지 AI는 금융 플랫폼 내에서 의심스러운 거래를 신고하고 자동화를 통해 알림을 생성하며, 챗봇 사용자 경험은 실시간으로 사용자와 상호 작용할 수 있습니다.
관측 가능성 계층은 AI 워크플로의 모니터링, 추적 및 평가를 용이하게 합니다. AI 모델이 실제 환경에서 어떻게 작동하는지 이해하는 데 필요한 가시성과 인사이트를 제공하여 팀이 문제를 신속하게 식별 및 해결하고, 시스템 상황을 유지하며, 시간이 지남에 따라 성능을 개선할 수 있도록 지원합니다.
관측 가능성 계층의 핵심에는 AI 모델과 모델이 실행되는 인프라와 관련된 다양한 메트릭을 추적하는 툴과 프레임워크가 있습니다.
거버넌스 계층은 AI 시스템이 조직 및 사회 표준에 맞춰 책임감 있고 윤리적으로 배포, 사용 및 유지 관리되도록 보장하는 포괄적인 프레임워크입니다.
이 계층은 위험을 관리하고 투명성을 증진하며 AI 기술에 대한 신뢰를 구축하는 데 매우 중요합니다. 여기에는 법적 규정, 윤리적 원칙 및 조직 목표와 함께 AI 모델의 라이프사이클을 감독하는 정책과 프로세스가 포함됩니다.
거버넌스 계층의 주요 기능은 규정 준수 프레임워크와 함께 데이터 수집 및 사용 정책을 수립하여 일반 데이터 보호규정(GDPR), 건강 보험 양도 및 책임에 관한 법률(HIPAA) 또는 EU AI 법과 같은 규정을 준수하는 것입니다. 이러한 프레임워크는 데이터를 수집, 저장 및 사용하는 방법을 정의하여 개인 정보 보호 및 보안을 장려합니다.
또한 거버넌스에는 감사 가능성 및 추적성을 위한 메커니즘을 만들어 조직이 AI 의사 결정, 모델 변경 및 데이터 사용을 기록하고 추적할 수 있도록 하는 것이 포함되며, 이는 책임 소재와 분쟁 또는 오류 해결에 매우 중요합니다.
거버넌스 계층은 또한 AI 시스템의 공정성, 편향 및 설명 가능성 문제를 다룹니다. 여기에는 학습 데이터 또는 모델 아웃풋의 편향을 감지하고 완화하는 도구와 기술을 구현하여 AI 시스템이 다양한 집단에서 공평하게 작동하도록 장려하는 것이 포함됩니다.
AI를 스택으로 보면 확장성, 유연성 및 효율성이 향상됩니다. 팀은 전체 시스템을 점검하지 않고도 특정 계층을 업그레이드하여 최신 발전의 이점을 활용할 수 있으므로 기술 및 비즈니스 요구 사항이 발전함에 따라 반복적인 개선 및 조정이 가능합니다.
예를 들어, 애플리케이션을 중단하지 않고 인프라 계층에서 다른 클라우드 공급업체로 전환하거나 모델 개발 계층에서 새로운 머신 러닝 프레임워크를 채택할 수 있습니다.
이러한 계층적 관점은 또한 AI 라이프사이클의 각 단계를 벤치마크하고 모니터링하는 것을 더 쉽게 만들어 모든 단계에서 성능, 규정 준수 및 안정성이 유지되도록 하는 데 도움이 됩니다. 스택 접근 방식은 AI의 복잡성을 단순화하여 모든 규모의 조직이 더 쉽게 접근하고 실행할 수 있도록 합니다.