많이 논의되고 있는 DeepSeek-R1과 오픈 소스 파운데이션 모델은 기업이 자체 맞춤형 모델을 만들 때 유리한 출발점을 제공하여 ROI를 높일 수 있습니다. 하지만 아직 덜 논의된 것은 AI 거버넌스의 역할입니다. 거버넌스는 모든 형태의 AI 및 ML에 필요하지만 제3자 제공업체의 오픈 소스 모델에 대한 고유한 고려 사항이 있습니다. 조직에서 AI를 안전하고 투명하며 책임감 있는 AI를 사용하려면 AI 거버넌스가 매우 중요합니다.
이러한 발전을 바탕으로 DeepSeek와 같은 오픈 소스 모델을 활용하는 방법과 AI 거버넌스를 통해 주요 문제를 완화할 수 있는 방법을 알아보겠습니다.
업계 뉴스레터
가장 중요하고 흥미로운 AI 뉴스에 대한 선별된 인사이트를 확인하세요. 주간 Think 뉴스레터를 구독하세요. IBM 개인정보 보호정책을 참조하세요.
구독은 영어로 제공됩니다. 모든 뉴스레터에는 구독 취소 링크가 있습니다. 여기에서 구독을 관리하거나 취소할 수 있습니다. 자세한 정보는 IBM 개인정보 보호정책을 참조하세요.
IBM의 연구에 따르면 오픈 소스 도구를 사용하는 기업 중 51%가 긍정적인 ROI를 달성한 반면, 그렇지 않은 기업은 41%에 불과했습니다. 새롭게 등장하고 있는 소규모 오픈 소스 모델은 IBM의 입장을 뒷받침하며, 이를 통해 기업은 효율성과 신뢰 및 안전의 균형을 맞추는 방식으로 AI의 이점을 실현할 수 있습니다. 많은 기술 리더들이 DeepSeek의 영향에 놀라고 우려했지만, IBM은 오랫동안 보다 개방적인 접근 방식을 지지해 왔습니다. "더 작고 효율적인 모델은 대규모 독점 시스템 없이도 실질적인 결과를 제공할 수 있습니다."라고 최근 Fortune에 게재된 기사에서 IBM의 CEO Arvind Krishna는 말했습니다.
오픈 소스 기반 파운데이션 모델을 사용할때 AI 거버넌스는 모델 라이프사이클 전반에 걸쳐 매우 중요합니다. 위험 평가부터 시작하여 조직은 먼저 모델이 사용하기에 안전한지 여부를 결정해야 합니다. 범용 또는 개인용으로 안전한 것으로 간주되는 것이 기업용 사용 사례에는 적합하지 않을 수 있습니다.
DeepSeek-R1의 경우, 조직은 모델을 자체 호스팅하거나 IBM® watsonx.ai와 같은 AI 스튜디오 제품을 통해 실행하는 것이 상대적으로 안전하다고 판단할 수 있습니다. 그러나 DeepSeek 앱을 사용하면 데이터 및 보안 문제가 발생할 수 있습니다. 이러한 이유로 많은 국가에서 DeepSeek 앱 사용을 금지했습니다.
모델이 승인되면 모델 유효성 검사기가 모델을 재고에 추가하여 모델 활용도와 성능을 추적하는 동시에 모델을 적용할 수 있는 사용 사례를 지정할 수 있습니다. 이 모델 컬렉션을 통해 AI 개발자는 사용 가능한 모델을 식별하고 보증, 데이터 및 보안 팀은 모델이 사용되는 위치를 추적할 수 있습니다.
AI 팩트시트는 라이프사이클 전반에 걸쳐 모델 팩트를 캡처하고 모델 내에 있는 내용과 모델이 어떻게 사용되는지에 대한 투명성을 높입니다. 팩트시트는 프롬프트 매개변수, 템플릿 및 평가를 포함하여 어떤 파운데이션 모델이 사용되었는지 보여줍니다.
일부 오픈 소스 모델의 안전성과 프롬프트 주입 및 탈옥이 용이하여 유해한 아웃풋을 초래할 수 있다는 우려가 있습니다. 관측 가능성과 가드레일을 통해 모델 상황, 정확성 및 드리프트를 모니터링하고 혐오 발언, 욕설 및 기타 유해 콘텐츠를 제한할 수 있습니다.
AI 거버넌스가 없는 AI의 단점은 엄청납니다. AI를 사용하여 EU 내 개인과 상호 작용하는 조직은 EU AI 법을 준수해야 합니다. 이를 준수하지 않을 경우 3,500만 유로의 벌금 또는 연간 매출의 7% 중 더 큰 금액이 부과될 수 있습니다.
기업의 브랜드, 평판, 고객 및 파트너 신뢰에 대한 위험도 심각합니다. 조직이 고객의 개인 데이터를 훼손하거나 상호 작용에서 고객을 모욕하거나 사기를 치는 경우를 상상해 보세요. 원래 잘못이 팀에 있든 파운데이션 모델에 있든 상관하지 않으며, 어느 쪽이든 브랜드는 손상을 입게 됩니다. 안전 장치가 마련되어 있지 않으면 모든 프로덕션 사용 사례에 생성형 AI를 사용하는 것이 너무 위험해집니다.
AI 거버넌스를 통해 조직은 다양한 위험을 관리 및 완화하고 AI를 안전하고 책임감 있게 사용할 수 있습니다. 이러한 노력을 지원하기 위해 IBM® Research는 조직이 다양한 AI 위험을 식별하고 매핑하는 데 도움이 되도록 설계된 도구인 AI Risk Atlas를 개발했습니다.
강력한 AI 거버넌스 프레임워크 및 솔루션은 조직에 매우 중요하지만, 처음부터 구축하는 것은 시간이 오래 걸리고 비용이 많이 드는 프로세스로, AI ROI에 해로울 수 있습니다. 조직이 효율적이고 안전하며 책임감 있게 AI를 확장하고자 하는 경우 IBM은 watsonx.governance를 구축했습니다.
리더는 watsonx.governance와 같은 AI 거버넌스 솔루션을 통해 DeepSeek와 같은 모델을 조직의 AI에 허용할지 여부와 방법을 결정할 수 있습니다. IBM® Guardium AI Security와 통합하여 watsonx.governance는 알려지지 않은 모델 인스턴스를 식별하고 탈옥, DDOS 및 PII 데이터 프롬프트와 같은 특정 위험을 관리할 수도 있습니다. 모든 모델을 관리하고 모든 클라우드에 적용하거나 온프레미스에서 실행할 수 있습니다. IBM의 AI Risk Atlas
DeepSeek는 일련의 오픈 소스 혁신 중 하나에 불과하며, 이전 기술과 비교할 때 모든 AI 발전은 조직 전략의 핵심에 거버넌스와 보안을 두어야 한다는 점을 상기시켜줍니다. 이는 선택 사항이 아니라 기본적인 요구 사항입니다.
오픈 소스 소규모 언어 모델로, 경쟁력 있는 가격으로 엔터프라이즈급 성능 및 투명성을 제공합니다.
업계 최고의 AI 전문성과 솔루션 포트폴리오를 보유한 IBM과 함께 AI를 비즈니스에 활용하세요.
AI로 핵심 워크플로와 운영을 새롭게 혁신해 경험과 실시간 의사 결정, 비즈니스 가치를 극대화하세요.