미국과 동맹국의 사이버 보안 당국은 최근 '에이전트 AI'(에이전트 AI)에 대한 보안 배포 지침을 공동으로 발표하면서 인터넷에서 자율적으로 행동할 수 있는 AI 시스템이 중요 인프라 및 방어와 같은 매우 민감한 영역에 진입했지만 대부분의 조직은 자체 모니터링 및 제어 능력을 훨씬 초과하는 액세스 권한을 부여한다는 점을 강조했습니다. 이 문서는 다양한 조직이 자율 AI 에이전트를 핵심 사이버 보안 문제로 간주하고 단순히 효율성 개선을 추구하기보다는 탄력성, 가역성 및 위험 억제에 우선순위를 둘 것을 요구합니다.

전문 다운로드:
https://cyberscoop.com/wp-content/uploads/sites/3/2026/05/CAREFUL-ADOPTION-OF-AGENTIC-AI-SERVICES_FINAL.pdf
이번 지침은 미국 사이버보안인프라보안국(CISA), 국가안보국(NSA), 호주신호국(Australian Signals Agency) 산하 호주사이버보안센터, 캐나다 사이버보안센터, 뉴질랜드 국립사이버보안센터, 영국 국립사이버보안센터 등이 공동으로 작성해 현지 시간 금요일 공개됐다. 가이드에서 중점을 두는 "에이전트 AI"는 확립된 권한 내에서 자율적으로 계획하고, 결정하고, 작업을 실행할 수 있는 능력을 갖춘 대규모 언어 모델을 기반으로 구축된 소프트웨어 시스템입니다. 복잡한 작업을 완료하려면 이러한 시스템은 외부 도구, 데이터베이스, 메모리 웨어하우스 및 자동화된 워크플로와 인터페이스하여 각 단계를 수동으로 검토하지 않고도 다단계 작업을 수행해야 하는 경우가 많습니다.
문서에서 공동 출시 기관들은 에이전트 AI를 배치한다는 것은 완전한 보안 시스템을 재구축해야 한다는 것을 의미하는 것이 아니라 기존 네트워크 보안 프레임워크 및 거버넌스 구조에 통합되어야 한다는 것을 강조했습니다. 제안 사항은 다음과 같습니다. 제로 트러스트, 방어 깊이, 최소 권한과 같은 기존 원칙을 AI 에이전트에 체계적으로 적용합니다. AI 에이전트를 ID 및 액세스 관리, 감사 로그, 변경 제어와 같은 측면에서 거버넌스를 위한 "매우 민감하고 강력한 권한" 기술 구성 요소로 취급합니다.
이 지침은 에이전트 기반 AI와 관련된 위험을 5가지 광범위한 범주로 요약합니다. 첫 번째는 "권한 위험"입니다. AI 에이전트에 너무 높거나 너무 광범위한 액세스 권한이 부여되면 침입이 성공하면 중요한 구성의 중앙 집중식 변조 또는 대규모 비즈니스 중단과 같은 기존 소프트웨어 취약점을 훨씬 넘어서는 피해를 입힐 수 있습니다. 두 번째 범주는 설계 및 구성 결함의 위험입니다. 즉, 시스템이 온라인 상태가 되기 전에 부적절한 아키텍처 설계, 너무 느슨한 기본 구성 또는 모호한 보안 경계 정의로 인해 보완하기 어려운 본질적인 보안 격차가 있습니다.
세 번째 유형의 위험은 "행동 위험"으로 분류됩니다. 이는 목표를 추구하면서 에이전트가 설계자가 예상하지 않았거나 심지어 상상하지도 못한 경로를 택하여 보안 또는 규정 준수 사고를 유발할 수 있다는 사실을 의미합니다. 네 번째 범주는 "구조적 위험"입니다. 여러 에이전트가 복잡한 비즈니스 시스템과 네트워크로 얽혀 있으면 결함이나 비정상적인 동작이 시스템 내에서 계단식으로 확산되어 시스템과 부서 전체에 연쇄 반응을 일으킬 수 있습니다.
다섯 번째 유형의 위험은 "책임"과 관련이 있습니다. 가이드는 에이전트 AI의 의사 결정 과정을 완전히 조사하기 어려운 경우가 많고, 생성된 작업 로그와 의사 결정 기록을 구문 분석하기가 쉽지 않아 문제의 근본 원인을 추적하고 이후 책임을 명확히 하는 것이 매우 어렵다고 지적합니다. 이러한 시스템에 장애가 발생하면 그 결과는 "가상 수준"에 머무르지 않고 파일 변조, 액세스 제어 변경, 감사 추적 삭제 등 특정 IT 자산에 반영되어 증거 수집 및 복구 작업에 직접적인 영향을 미칩니다.
이 문서는 또한 "즉시 주입"으로 인한 공격의 위험에 대해 구체적으로 경고합니다. 공격자는 AI 에이전트가 원래 임무에서 벗어나 악의적인 작업을 수행하도록 유도하는 지침을 데이터나 콘텐츠에 은밀하게 삽입할 수 있습니다. 힌트 주입은 대규모 언어 모델 생태계에서 항상 만성 질환으로 간주되어 왔습니다. 일부 기업에서는 이 문제가 오랫동안 완전히 근절되지 않을 수도 있음을 공개적으로 인정했습니다. 이는 또한 보다 자동화된 프록시 시나리오에서 이러한 유형의 공격으로 인한 잠재적 피해가 특히 두드러지게 만듭니다.
특정 보호 조치 수준에서 ID 관리는 가이드 전체에서 중요한 위치를 차지합니다. 합동 기관은 각 AI 에이전트가 암호화로 보호되는 검증 가능한 독립적 신원을 가져야 한다고 권장합니다. 사용하는 자격 증명은 짧은 기간 동안 유효해야 합니다. 에이전트와 다른 에이전트 및 서비스 간의 모든 통신은 암호화된 채널을 사용해야 합니다. 중요한 구성 수정, 사용자 권한 상승 또는 대규모 데이터 삭제와 같이 중대한 영향을 미칠 수 있는 작업의 경우 지침에서는 승인이 사람에 의해 수행되어야 하며 에이전트 자체가 아닌 시스템 설계자가 어떤 작업이 "효과가 큰 동작"인지 정의하도록 분명히 요구합니다.
동시에, 발급 기관은 기존 보안 업계 관행이 아직 에이전트 기반 AI의 개발 속도를 완전히 따라잡지 못했다는 점도 인정했습니다. 독특한 "AI 에이전트 특성"을 지닌 일부 위험은 기존 보안 프레임워크에서 완전히 다루어지지 않았으며, 기관 간, 산업 간 연구 및 협력이 시급히 필요합니다. 가이드에서는 보안 방법론, 평가 방법 및 관련 표준이 미성숙하기 전에 조직은 에이전트 AI가 "예기치 않은 동작을 나타낼 수 있다"고 가정하고 그에 따라 배포 계획을 세워 자동화로 인한 효율성 배당금을 맹목적으로 추구하기보다는 시스템 설계의 탄력성, 가역성 및 위험 제어 가능성을 보장하는 데 우선순위를 두어야 한다고 지적합니다.