생성형 AI 시스템은 고유한 보안 문제들을 야기합니다. 생성형 AI 모델에 대한 접근권을 확보하는 일반적인 과제와 더불어, 대규모 언어 모델(LLM)과 그 밖의 생성형 기술의 창의력, 그리고 모델이 부정확하거나 바람직하지 않은 결과물을 생성하거나, 민감한 정보나 사적인 정보를 공개하거나, 바람직하지 않거나 잘못된/허용되지 않는/불법적인 행동을 할 위험 사이에서 균형을 맞춰야 합니다.
OWASP(Open Web Application Security Project)는 LLM 및 생성형 AI 애플리케이션의 10대 위험 및 취약성 버전 1을 발표했습니다. 아래 다이어그램은 에이전틱 AI 아키텍처의 맥락에서 이 취약점들을 보여줍니다.
ID 및 액세스 관리(IAM) 구성 요소는 강력한 사용자 ID와 역할을 제공하기 위해 추가되었습니다. 도난이나 모델 공개로 이어질 수 있는 애플리케이션 기능과 API에 대한 액세스를 제어하여 모델 도난 위험을 줄입니다.
에이전트 식별 및 접근 제어(에이전트 접근 제어) 기능이 추가되어, 특권 사용자와 유사한 방식으로 에이전트 접근 권한을 사용자 신원 및 역할과 대조합니다. 이는 할루시네이션, 부적절하거나 모호한 프롬프트로 인해 과도한 권한이 행사되거나 에이전트가 비정상적으로 작동하는 것을 방지합니다.
생성형 AI 모니터링 구성 요소(생성형 AI 모니터링)가 아키텍처 전반에 추가되어 프롬프트 인젝션, 안전하지 않은 아웃풋 처리, 민감한 데이터 공개, 과도한 의존을 방지합니다. GenAI 모니터링과 기존 데이터 유출 모니터링을 결합하여 프롬프트/응답 기반 공격(예: SQL 쿼리 결과에 프롬프트가 주입되는 경우)와 API 호출, 데이터베이스 쿼리 등의 결과에 노출될 수 있는 민감 정보 유출을 방지합니다.
구성 관리 및 모니터링 툴은 물론 모델 학습, 미세 조정, 구성 데이터에 대한 체계적인 버전 제어와 릴리스 프로세스를 추가하면 학습 데이터 포이징 공격을 완화할 수 있습니다.
마지막으로 통합된 동작 모니터링 및 이벤트 상관 관계 구성 요소가 추가되어, 개별 구성 요소 로그에서 잠재적인 취약성과 공격을 식별합니다. 시스템 운영자에게 잠재적인 문제를 알리기 위해 알림 및 경고 구성 요소가 추가되었으며, 식별된 문제에 대한 시스템과 수동 대응을 자동화 또는 조정하기 위해 응답 오케스트레이션 구성 요소가 추가되었습니다.