Google은 기밀 네트워크에 자체 AI 도구에 대한 액세스를 개방하기 위해 국방부와 새로운 계약을 체결했습니다. Anthropic이 미국 국방부의 민감한 사용 승인 요청을 거부한 후 거의 모든 "합법적 사용"을 허용합니다. 여러 언론 보도에 따르면 이러한 합의는 국방부가 정보 분석, 의사 결정 지원 및 기타 시나리오를 위해 기밀 환경에 Google의 AI를 보다 광범위하게 배포할 수 있음을 의미합니다.

이 사건은 트럼프 행정부에 대한 Anthropic의 공개 입장에서 촉발되었습니다. 이전에 미 국방부는 국내 대량 감시 및 자율 무기 시스템에 AI를 사용하는 등 제한이 거의 없는 Anthropic 모델을 사용하기를 원했지만 Anthropic은 그러한 사용을 금지하는 계약에 명확한 "가드레일"을 추가해야 한다고 주장했습니다. Anthropic은 이러한 사용 사례에 대한 협력을 거부했기 때문에 국방부는 이후 모델 회사를 "공급망 위험" 목록에 올렸습니다. 이 목록은 일반적으로 "외국의 적"으로 간주되는 단체를 위해 예약된 레이블입니다.

Anthropic은 지정과 관련하여 법원에 소송을 제기했습니다. 올해 3월, 판사는 사건이 진행되는 동안 '공급망 위험' 결정에 대한 임시 금지 명령을 발부해 달라는 Anthropic의 요청을 승인하여 관련 행정적 결과의 확산을 일시적으로 방지했습니다.

이런 갈등 속에서 다른 대형 AI 기업들은 재빠르게 기회를 포착해 앤트로픽의 '손실'을 자신들의 '이익'으로 바꾸려고 했다. OpenAI는 하루빨리 국방부와 협약을 체결했습니다. 나중에 xAI는 기밀 네트워크에 액세스할 수 있게 되었고, 이로 인해 미국 의회의 일부 구성원이 국방부의 의사 결정에 의문을 제기하게 되었습니다. 이제 구글은 군과 유사한 협약을 맺은 세 번째 기업이 됐으며, 구글의 협력으로 미국 국방 시스템에서 사용할 수 있는 대형 모델 라인업이 더욱 확대됐다.

월스트리트저널(WSJ)에 따르면 구글과 미 국방부의 계약서에는 OpenAI 계약의 일부와 마찬가지로 자사의 AI를 국내 대량 감시나 자율 무기에 사용할 의도가 없다는 문구도 포함됐다. 그러나 보고서는 이러한 조항이 실제로 법적 구속력을 갖는지, 실제 이행 시 어떻게 모니터링되고 책임이 있는지에 대해서는 여전히 불확실성이 있다고 지적했습니다.

내부 반대가 수그러들지 않는 가운데 구글이 이런 대규모 군사 질서를 추진하고 있다는 점은 주목할 만하다. 지금까지 950명의 Google 직원이 Anthropic의 지침을 따르도록 촉구하는 공개 서한에 서명했으며 명확하고 시행 가능한 사용 제한 없이 국방부에 AI 기능을 판매해서는 안 됩니다. 구글은 아직 공동 서한과 새 계약의 구체적인 내용에 응답하지 않았으며 언론의 논평 요청에도 응답하지 않았습니다.

인공지능이 공공 보안과 군사 분야에 급속히 침투하는 상황에서, 이번 사건은 거대 기술 기업, 정부, 직원 사이의 가치관 갈등이 점점 더 심각해지고 있음을 반영합니다. 한편으로, 군대는 역량 강화를 위해 최첨단 AI 도구의 사용을 극대화하려고 합니다. 반면 일부 기술 회사와 그 직원은 계약 조건과 여론 압력을 통해 AI의 군사 및 보안 애플리케이션에 대한 수익을 설정하려고 시도합니다. 앤트로픽의 강경한 입장을 따르지 않고 미 국방부와 협력을 확대하기로 한 구글의 선택은 “AI 활용에 누가 한계선을 그어야 하는가”를 둘러싼 논란을 더욱 심화시켰다.