엔터프라이즈 전반에 AI 통합을 가속하면 긍정적인 비즈니스 성장을 이끌 수 있습니다. 기업 AI 이니셔티브의 90%가 테스트 단계를 넘어서지 못해 어려움을 겪고 있습니다. 조직들은 데이터 과학 역량은 성숙해지고 있지만, 여전히 고급 분석과 AI/ML을 매일의 실시간 의사결정에 통합하고 확장하는 데 실패하고 있어 AI의 가치를 얻지 못하고 있습니다. 원격 근무의 새로운 시대에는 디지털 혁신의 가속화가 필요하며, 이를 더 빠르게 달성하기 위해 AI/ML을 활용할 수 있습니다. 그리고 이는 더욱 효율적인 비즈니스 운영, 더 매력적인 고객 경험, 더 통찰력 있는 의사결정으로 이어집니다. 기업은 AI를 통해 가치 사슬 전반에서 큰 성과를 얻을 수 있지만, 초기부터 제대로 수행하지 않으면 벌금, 제재, 오류, 결과 손상, 비즈니스 사용자와 시장의 신뢰 상실 위험이 있습니다.
전략적으로 AI를 확장하는 기업은 개별 PoC만 수행하는 기업보다 AI 투자 수익률이 거의 3배 높다고 보고합니다.
IBM® Services는 AI로부터 가치를 창출하기 위한 엔드 투 엔드 역량을 갖추고 있습니다. IBM은 환경 친화적이며 실행 가능하고 재사용 가능하며 확장 가능한 AI/ML 모델을 통해 일회성 실험이 아닌 지속 가능한 엔터프라이즈 혁신을 추진합니다. IBM Services for AI at Scale은 현재의 AI 프로젝트와 애플리케이션을 엔터프라이즈 수준으로 확장하는 것을 목표로 합니다. 이는 전체 서비스를 구성하는 여러 핵심 요소로 이루어져 있습니다.
우리는 경쟁 우위를 위한 핵심 비즈니스 전략 요소로서 신뢰할 수 있는 AI와 데이터를 구축하고 확장하는 비전을 설정하는 것으로 시작합니다. 우리는 고객과 조직이 신뢰할 수 있는 실제 AI 가치를 창출하기 위한 측정 프레임워크를 기반으로 합니다.
우리는 맞춤형 운영 모델을 구축하기 위해 고객 팀과 협업하며 조언을 제공합니다. 각 조직은 서로 다르며 한 조직에서 효과적인 접근 방식이 다른 조직에서는 효과적이지 않을 수 있다는 점을 우리는 이해합니다. 예를 들어, 비연합 모델이 아닌 연합 모델을 선택할 수 있습니다. 그 다음, 확장 가능하고 연결된 팀이 AI 자산을 활용해 측정 가능한 비즈니스 가치를 창출하도록 이니셔티브 파이프라인을 함께 구축합니다.
우리는 다양한 사용 사례·플랫폼·클라우드에서 데이터를 수집·통합·관리할 수 있는 유연한 AI 제품 포트폴리오를 활용해 고객의 AI 데이터 및 기술 방향을 이끌고, AI·ML 기반 애플리케이션을 마이그레이션하거나 새롭게 구축할 수 있도록 지원합니다.
우리는 AI 운영(AIOps)을 데이터 과학 및 AI 모델을 반복적·일관적·대규모로 배포하기 위한 핵심 요소로 정의하며, 엔지니어링, 배포, 모니터링, 신뢰라는 네 가지 목표를 중심에 둡니다.
우리는 엔터프라이즈 수준의 적극적인 변화 관리를 구축함으로써 최소한의 위험으로 AI 도입률을 높일 수 있도록 변화 관리 전략을 개발합니다. 이 접근 방식은 AI가 기업에 가치를 창출하는 데 방해가 되는 요소를 식별하고 해결하는 데 도움이 됩니다.
우리는 AI 조직에서 성숙도와 확장성을 달성하는 데 필수적인 올바른 기술 세트, 역할, 팀 구성을 선택하도록 지원합니다.
IBM Services for AI at Scale의 중요한 특징은 완전히 새로 시작할 필요가 없다는 점입니다. IBM은 인텔리전스 자동화, 거버넌스, 데이터 관리와 같은 기존 환경을 지원합니다. 고객은 워크로드가 어디에서 실행되든 전체 가시성과 제어 역량을 확보하여 실제 비즈니스 가치를 창출할 수 있습니다. 위험을 최소화하면서 배포 시간과 가치 창출 시간을 최소화하는 것을 목표로 하는 IBM의 프로세스에는 대규모 AI 구현에 대한 4단계 접근 방식이 포함됩니다.
1. 평가 단계 (4–6주): 기존 프로세스, 방법론, 툴의 격차를 식별하기 위한 단기 감리, 평가, 계획 수립 단계입니다. 고객과 공동 협업을 통해 첫 번째 솔루션을 실행합니다.
2. 설계 및 구축 (4–6주): AI 구축, 확장, 유지 관리를 위한 공통 프레임워크를 공동으로 구성합니다. 기존 환경을 기반으로 클라이언트와 함께 확장성 프레임워크를 설정합니다.
3. 적용 (3–4개월): 첫 번째 프로젝트를 공동으로 수행합니다. 프레임워크에서 3~5개의 MVP를 파일럿하여 개선하고, 아키텍처·프로세스·프로그램을 확정 및 구축합니다. 고객과 협업하여 초기 솔루션을 실행합니다. IBM Garage: 공동 작성, 공동 실행, 공동 운영
확장 (진행 중): 확장 팀을 구성하고 프로덕션에서 머신 러닝을 관리합니다. 고객이 비즈니스 과제에 집중할 수 있도록 조직 전체에 완전 관리형 AI를 서비스로 제공합니다.
RAD-ML은 자동화를 통해 데이터 과학 애플리케이션의 프로덕션 적용 시간을 빠르게 단축하기 위한 IBM의 접근 방식 프레임워크입니다. RAD-ML 방법론과 IBM의 다양한 자산 및 가속기로 지원되는 IBM Services for AI at Scale은 반복 가능하고 재사용 가능하며 확장 가능하고 실행 가능한 AI/ML 모델을 만들기 위해 데이터 과학을 활용할 수 있는 책임 있고 일관되며 혁신적인 프레임워크를 제공합니다. IBM의 제공 모델은 개발 시간을 획기적으로 단축하고 프로덕션 배포를 가속화하는 파이프라인을 구축하며, 고객 데이터 과학자의 효율성을 높여 기대되는 비즈니스 성과에 집중하고 본연의 역량을 발휘할 수 있도록 합니다.
IBM Services for AI at Scale은 AI/ML PoC를 일관되게 프로덕션 환경으로 통합하고 확장하며, 시간이 지나도 해당 모델을 운영하고 관리할 수 있도록 하는 “컨설팅에서 운영까지”를 포함한 서비스입니다. RAD-ML 방법 가이드라인으로 개발된 자산은 확장 가능한 머신러닝 아키텍처에 보다 쉽게 배포될 수 있습니다.
RAD-ML은 확장 가능한 ML 자산을 개발하고 기능적·전략적 관점에서 자산 준비도를 정의하는 데 입증된 프레임워크이며, 공통 프레임워크가 없는 고객에게는 모든 AI/ML 솔루션의 출발점으로 사용할 수 있습니다. RAD-ML은 단독 데이터 과학 자산을 개발하거나 기존 솔루션 위에 모듈을 개발하는 데 활용될 수 있습니다. RAD-ML은 다음 핵심 개념을 통해 실행 가능성, 재사용성, 확장성이라는 세 가지 역량을 충족하는 머신러닝 자산을 생성하도록 지원합니다.
▪ 머신 러닝 자산은 검증된 ROI와 함께 비즈니스 프로세스에 통합되어야 합니다.
▪ 머신 러닝 자산은 서로 다른 데이터 환경과 기술 투자에 유연해야 합니다.
▪ 머신 러닝 자산은 확장 가능한 견고한 기술 및 운영 설계를 기반으로 해야 합니다.
업계 뉴스레터
가장 중요하고 흥미로운 AI 뉴스에 대한 선별된 인사이트를 확인하세요. 주간 Think 뉴스레터를 구독하세요. IBM 개인정보 보호정책을 참조하세요.
구독은 영어로 제공됩니다. 모든 뉴스레터에는 구독 취소 링크가 있습니다. 여기에서 구독을 관리하거나 취소할 수 있습니다. 자세한 정보는 IBM 개인정보 보호정책을 참조하세요.
모든 RAD-ML 프로젝트는 기존 고객 환경에 통합되어야 합니다. 또한 Brainstem, dash-blocks, 아키텍처, 문서 템플릿 등 오픈소스 및 무료 RAD-ML 가속기를 포함해야 합니다. 적합하고 표준화된 ML Ops 아키텍처를 정의하려면 대상 구성 요소에 대한 상세한 개요가 필요합니다. 대상 구성 요소는 내부 인프라 및 툴 설정과 일치하도록 구성됩니다.
IBM은 하이브리드 멀티클라우드를 포함해 사실상 모든 클라우드에서 이 공통 프레임워크를 구현할 수 있습니다. 아래는 IBM이 AWS 툴을 사용해 머신러닝 파이프라인을 구축하는 방법의 예시입니다.
AWS CodeCommit은 기존의 git 리포지토리를 대체하며, 프로젝트에서 사용되는 모든 코드가 저장되는 핵심 공간입니다.
CodeBuild는 모든 단위 테스트와 통합 테스트를 실행하고, 지정된 Python 소스에서 tarball을 생성하여 이후 Docker 컨테이너로 배포할 수 있도록 합니다. CodeDeploy는 지정된 배포 시나리오를 실행하여 Docker 컨테이너를 빌드하고, Docker 이미지 리포지토리에 푸시하며, 최종적으로 프로덕션 환경에 이미지를 로드합니다.
AWS ECR은 앞서 언급한 파이프라인에서 생성된 모든 Docker 컨테이너의 리포지토리 역할을 합니다. AWS ECR은 CodeCommit이 구성 파일과 소스 코드를 저장하듯 컨테이너를 저장하는 리포지토리입니다. 외부에서 지정된 매개변수로 학습 작업이 트리거되면 AWS SageMaker는 지정된 Docker 이미지를 ECR에서 찾습니다.
AWS SageMaker는 모든 학습 작업의 런타임 환경으로 동작합니다. AWS SageMaker는 API 또는 Python 바인딩을 통해 실행될 수 있습니다. 사용자는 실행할 모델 유형과 입력·출력 데이터의 위치를 지정합니다. AWS SageMaker는 훈련 코드가 포함된 엔트리 포인트를 가진 Docker 이미지를 허용합니다. 또한 TensorFlow/MXNet/ONNX로 정의된 작업을 실행할 수도 있습니다. SageMaker는 관리용 UI를 제공하며, 관리형 서비스이므로 탄력적으로 확장할 수 있습니다. 따라서 사용자는 특정 모델을 훈련하기 위해 다양한 머신 유형 중에서 선택할 수 있습니다. AWS SageMaker는 API를 통해 실행할 수 있는 하이퍼파라미터 튜닝에도 사용될 수 있습니다. 해당 툴은 가장 성능이 좋은 하이퍼파라미터 조합을 자동으로 선택합니다. 훈련 결과는 S3 또는 DynamoDB에 직접 저장될 수 있습니다.
AWS S3는 입력 및 출력 파일의 기본 파일 시스템 역할을 합니다. 일반적으로 S3는 대규모 학습 데이터 파일을 저장하는 데 사용되며, 직렬화된 모델을 저장하는 데도 활용됩니다. AWS S3는 SageMaker와 원활하게 통합됩니다.
AWS DynamoDB는 AWS에서 완전 관리되는 키-값 기반 NoSQL 데이터베이스이며, 필요에 따라 확장할 수 있습니다. 이 데이터베이스는 모델 실행에서 생성된 KPI를 저장하여 시간이 지남에 따라 모델 성능을 추적하는 데 사용될 수 있습니다. 또한 모델 실행의 런타임 정보와 성능 메타데이터를 통합하는 데 활용됩니다. AWS DynamoDB는 AWS의 데이터 시각화 툴인 QuickSight와 원활하게 통합됩니다.
AWS Elastic Inference는 확장된 처리 능력을 갖춘 EC2 인스턴스입니다. AWS SageMaker에서 학습된 모델은 예측을 위해 EI 인스턴스에 호스팅될 수 있습니다. 기반 머신은 필요에 따라 확장될 수 있습니다.
윤리 문제는 단순한 모델링 문제가 아니라 비즈니스 문제입니다. 60%의 기업이 AI를 성공적으로 적용하는 데 있어 규정 준수를 장애물로 보고 있으며, 이는 부분적으로 시스템에 대한 신뢰와 이해 부족 때문입니다. IBM은 신뢰를 유지하고 브랜드 및 평판 위험을 줄이면서 AI를 일관되게 실행, 유지 관리 및 확장하기 위해 신뢰, 투명성 및 공정성을 육성하기 위한 3가지 접근 방식을 설계했습니다. IBM은 클라이언트가 AI를 안전하게 확장하기 위해 채택해야 하는 문화를 지원하고, 블랙박스 알고리즘 내부를 들여다볼 수 있는 포렌식 툴을 통한 AI 엔지니어링을 제공하며, 엔지니어링이 해당 문화에 부합하도록 보장하는 거버넌스를 지원합니다. 신뢰할 수 있는 AI의 중심에는 오픈소스 및 Linux 기반으로 커뮤니티에서 높은 평가를 받는 IBM의 텔레메트리 및 포렌식 툴링이 있습니다.
IBM Services for AI at Scale은 IBM Research의 오픈 소스 툴킷인 AI Fairness 360과 팩트 시트를 중심으로 구성됩니다. 개발자들은 AI 편향 탐지 및 완화와 관련된 최신 코드와 데이터 세트를 공유하고 활용할 수 있습니다. 이러한 IBM Research 활동을 바탕으로 IBM은 AI 편향을 탐지·관리·완화하기 위해 설계된 상용 솔루션인 IBM® Watson OpenScale을 통합했습니다.