IBM 및 AWS 연구: 현재 생성형 AI 프로젝트의 25% 미만이 보호되고 있습니다.
기업 세계는 오랫동안 신뢰가 좋은 비즈니스를 구축하는 기반이라는 생각을 가지고 운영되어 왔습니다. 그러나 이제 AI가 비즈니스 운영 방식과 고객과의 상호 작용 방식을 혁신하고 재정의함에 따라 기술에 대한 신뢰가 구축되어야 합니다.
AI의 발전은 인적 자본이 고부가가치 결과물에 집중할 수 있도록 해줍니다. 이러한 진화는 비즈니스 성장에 혁신적인 영향을 미칠 것이지만, 사용자 및 고객 경험은 안전하고 책임감 있으며 신뢰할 수 있는 기술 솔루션을 구축하려는 조직의 노력에 달려 있습니다.
기업은 사용자와 상호 작용하는 생성형 AI가 신뢰할 수 있는지 여부를 판단해야 하며, 보안은 신뢰의 기본 구성 요소입니다. 따라서 기업이 직면한 가장 큰 도전 중 하나는 바로 AI 배포를 보호하는 것입니다.
오늘 IBM 기업가치연구소(IBV)는 IBM과 AWS가 공동으로 작성한 '생성형 AI 보안: 지금 중요한 것은 무엇인가' 연구 결과를 발표했는데, 이 연구에서는 생성형 AI 배포 보안에 대한 새로운 데이터, 관행 및 권장 사항을 소개합니다. IBM 연구에 따르면 최고 경영진 응답자의 82%가 안전하고 신뢰할 수 있는 AI가 비즈니스 성공에 필수적이라고 답했습니다. 희망적으로 들리지만, 설문조사에 따르면 리더의 69%는 생성형 AI와 관련하여 혁신이 보안보다 우선한다고 답했습니다.
혁신과 보안 사이에서 우선순위를 정하는 것은 선택처럼 보일 수 있지만 실제로는 테스트입니다. 조직은 생성형 AI로 인해 그 어느 때보다 위험이 높다는 것을 인식하고 있지만 이전의 기술 혁신에서 얻은 교훈을 적용하지 않고 있습니다. 하이브리드 클라우드, 민첩한 소프트웨어 개발 또는 제로 트러스트로의 전환과 마찬가지로 생성형 AI 보안은 나중에 고려해야 할 사항이 될 수 있습니다. 응답자의 50% 이상은 생성형 AI 이니셔티브에 영향을 미치는 예측할 수 없는 위험에 대해 우려하고 있으며, 이로 인해 비즈니스 중단 가능성이 증가할 것을 우려하고 있습니다. 그러나 현재 생성형 AI 프로젝트의 24%만이 보안이 유지되고 있다고 보고했습니다. 이러한 단절이 발생하는 이유는 무엇인가요?
보안에 대한 우유부단함은 광범위한 생성형 AI 지식 격차의 지표이자 결과일 수 있습니다. 응답자의 거의 절반(47%)이 생성형 AI와 관련하여 어디에 얼마를 투자해야 할지 불확실하다고 답했습니다. 팀이 새로운 기능을 시험해 볼 때에도 리더들은 어떤 생성형 AI 사용 사례가 가장 적합한지, 프로덕션 환경에 맞게 이를 확장하는 방법을 여전히 고민하고 있습니다.
어디서부터 시작해야 할지 모르는 것도 보안 조치를 취하는 데 방해가 될 수 있습니다. 이러한 이유로 IBM과 AWS는 AI를 보호하고자 하는 조직을 위한 행동 가이드와 실용적인 권장 사항을 조명하기 위해 노력했습니다.
생성형 AI의 신뢰와 보안을 구축하려면 조직은 거버넌스를 기준으로 기본부터 시작해야 합니다. 실제로 응답자의 81%는 생성형 AI에는 근본적으로 새로운 보안 거버넌스 모델이 필요하다고 답했습니다. 리더는 거버넌스, 위험 및 규정 준수(GRC)로 시작하여 비즈니스 목표 및 브랜드 가치에 맞는 AI 아키텍처를 보호하기 위한 사이버 보안 전략의 기반을 구축할 수 있습니다.
모든 프로세스의 보안을 유지하려면 먼저 프로세스가 어떻게 작동해야 하는지, 예상되는 프로세스가 어떤 모습이어야 하는지 이해하여 편차를 식별할 수 있어야 합니다. 운영 설계 방식에서 벗어난 AI는 예상치 못한 비즈니스 영향과 함께 새로운 위험을 초래할 수 있습니다. 따라서 이러한 잠재적 위험을 식별하고 이해하면 조직이 고유한 규정 준수 및 규정 요구 사항에 따라 자체 위험 임계값을 이해하는 데 도움이 됩니다.
거버넌스 가드레일이 설정되면 조직은 AI 파이프라인을 보호하기 위한 전략을 보다 효과적으로 수립할 수 있습니다.여기에는 데이터, 모델 및 그 용도는 물론 AI 혁신을 구축하고 임베드하는 기본 인프라까지 포함됩니다. 보안에 대한 공동 책임 모델은 조직이 생성형 AI를 사용하는 방식에 따라 달라질 수 있습니다. 조직은 자체적으로 AI 운영을 개발할 때 비즈니스에 미칠 수 있는 위험을 완화하는 데 도움이 되는 다양한 툴, 제어 및 프로세스를 사용할 수 있습니다.
또한 조직은 신뢰할 수 있는 AI에 대해 생각할 때 할루시네이션, 윤리, 편견을 먼저 떠올리지만, AI 파이프라인은 신뢰 자체를 위험에 빠뜨리는 위협 환경에 직면해 있다는 사실을 인식해야 합니다. 기존의 위협은 새로운 의미를 갖고 있으며, 새로운 위협은 공격적 AI 역량을 새로운 공격 벡터로 사용하고, 새로운 위협은 우리가 점점 더 의존하고 있는 AI 자산과 서비스를 손상시키려 합니다.
보안은 생성형 AI 사용 사례에 신뢰와 확신을 더하는 데 도움이 될 수 있습니다. 이러한 시너지를 달성하려면 조직은 마을 단위의 접근 방식을 취해야 합니다. 대화는 IS와 IT 이해 관계자를 넘어 전략, 제품 개발, 위험, 공급망 및 고객 참여로 확장되어야 합니다.
이러한 기술은 혁신적이면서도 파괴적이기 때문에 조직의 AI 및 생성형 AI 자산을 관리하려면 보안, 기술 및 비즈니스 영역 전반에서 협업이 필요합니다.
기술 파트너가 중요한 역할을 할 수 있습니다. 위협 라이프사이클과 보안 에코시스템 전반에 걸쳐 기술 파트너의 폭넓고 깊이 있는 전문 지식을 활용하는 것은 귀중한 자산이 될 수 있습니다. 실제로 IBM 연구에 따르면 설문조사에 참여한 조직의 90% 이상이 타사 제품 또는 기술 파트너를 통해 생성형 AI 보안 솔루션을 사용하고 있는 것으로 나타났습니다. 생성형 AI 보안 요구 사항에 맞는 기술 파트너를 선택하는 것과 관련하여 설문 조사에 참여한 조직은 다음과 같이 보고했습니다.
이 연구는 기업들이 AI 혁신에 있어 보안의 중요성을 인식하고 있지만, 여전히 AI 혁명에 가장 잘 접근하는 방법을 이해하고자 노력하고 있다는 것을 보여줍니다. 이러한 노력을 안내하고, 조언하고, 기술적으로 지원할 수 있는 관계를 구축하는 것은 보호되고 신뢰할 수 있는 생성형 AI를 위한 중요한 다음 단계입니다. 경영진의 인식과 우선순위에 대한 주요 인사이트를 공유하는 것 외에도, IBM과 AWS는 생성형 AI 보안 전략을 한 단계 더 발전시키기 위한 실질적인 권장 사항을 담은 실행 가이드를 제공했습니다.