미국 트럼프 행정부는 점점 커지는 국가 안보 위험에 대처하기 위해 최첨단 인공지능 모델에 대한 통제를 강화하는 행정 조치 패키지 통과를 고려하고 있습니다. 익명이 보장된 7명의 기술 산업 대표와 정책 고문에 따르면, 고급 AI 모델에 대한 공식적인 검토 및 공개 메커니즘 구축을 포함하는 새로운 규정에 대한 백악관 내 논의가 한동안 진행되어 왔다고 합니다.

이 문제에 정통한 여러 관계자는 최근 업계와의 비공개 소통에서 백악관이 제안한 아이디어 중 하나가 이른바 '최첨단 AI 모델'의 잠재적 영향을 평가하기 위한 행정명령 형태의 검토 시스템을 구축하는 것이라고 전했다. AI 정책 전문가와 업계 관계자는 이 계획에 따라 기업이 고성능 모델을 출시하기 전에 연방정부로부터 '허가'를 받아야 할 수도 있다고 말했다. New York Times는 이전에 백악관이 유사한 검토 구조를 고려하고 있다고 밝혔습니다.
백악관 대변인은 모든 공식적인 정책은 도널드 트럼프 대통령이 직접 발표할 것이며 가능한 행정 명령에 대한 현재 논의는 여전히 '추측'에 불과하다고 말했습니다. 동시에 점점 더 많은 기술 기업이 정부와 자발적으로 협력하고 온라인에 출시되기 전에 검토를 위해 적극적으로 새 모델을 제출하고 있습니다. 화요일 바로 트럼프 행정부는 차세대 모델이 공개되기 전에 정부가 국가 안보 위험 평가를 수행할 수 있도록 Microsoft, xAI 및 Google DeepMind와 합의했습니다.
이러한 일련의 조치는 기술 자체의 안전성에 대한 우려와 업계의 정치 캠페인에 대한 막대한 투자에 대한 의문을 포함하여 AI에 대한 광범위한 대중의 불안이 계속 높아지는 가운데 나온 것입니다. 이달 초 발표된 POLITICO 여론 조사에 따르면 미국 유권자들은 인공 지능 전반에 대해 상당히 회의적인 것으로 나타났습니다. 이러한 맥락에서 공식적인 AI 배포 전 검토 메커니즘은 현재 백악관이 고려하고 있는 일련의 행정 조치 중 하나일 뿐입니다. 다른 아이디어에는 AI로 인한 보안 위험에 대해 더욱 강력한 접근 방식을 취하고 기술 산업이 정부 보안 및 정책 요구 사항에 대응할 수 있는 공간을 제한하는 것이 포함됩니다.
이 문제에 정통한 4명의 소식통에 따르면 정부는 민간 부문이 정부의 AI 모델 사용을 '간섭'하는 것을 금지하는 16페이지 분량의 행정 명령 초안을 준비 중이라고 합니다. 초안은 또한 연방 조달 및 계약 표준을 강화하고 정부가 AI 공급업체와 협력할 수 있는 더 큰 기관을 제공할 계획입니다. 이 조항은 백악관과 AI 회사인 Anthropic 사이의 최근 대립에 대한 직접적인 대응으로 널리 알려져 있습니다. Anthropic은 군대가 모델인 Claude를 사용하여 미국 시민을 감시하거나 자율 무기를 구동하는 것을 거부하여 국방부의 항의를 촉발했습니다.
이에 대해 Pete Hegseth 국방장관은 지난 3월 Anthropic을 "공급망 보안 위험"으로 분류했습니다. 이는 연방 기관이 회사 제품을 사용하는 능력을 즉시 제한하는 드문 조치입니다. 많은 관찰자들은 현재 AI를 둘러싼 정책이 트럼프 행정부의 규제적 사고에 중요한 변화를 가져오고 있다고 지적했습니다. 이에 앞서 백악관은 데이빗 색스(David Sacks), 마크 안드레센(Marc Andreessen) 등 '방임주의' 벤처캐피탈리스트들의 로비 하에 AI 산업 규제와 감독에 대해 상대적으로 느슨한 '가벼운 접촉' 태도를 채택해왔다.
이제 겉보기에 '급격한 전환'이 기술계에 경계심을 불러일으키고 있습니다. 일부 업계 대표들은 정부의 통제가 엄격해지면 혁신 속도가 느려질 것을 우려하고 있습니다. 싱크탱크인 정보기술혁신재단(Information Technology and Innovation Foundation)의 다니엘 카스트로(Daniel Castro) 회장은 "모델의 모든 새로운 버전이 먼저 승인을 위해 정부에 제출되어야 하는" 세상에 들어가고 싶어하는 사람은 아무도 없다고 말했습니다. 그는 '실리콘밸리 속도'는 '워싱턴 속도'와 매우 다르다며 미국이 AI 분야에서 중국과 경쟁하려면 계속해서 빠르게 발전해야 한다고 경고했다.
제안된 행정 명령은 또한 사이버 보안 분야의 최첨단 AI, 특히 Anthropic의 새로운 모델 Mythos가 제기하는 새로운 위협을 목표로 합니다. 이 모델은 아직 대중에게 공개되지 않았지만, 정부와 대규모 기관의 초기 테스트 결과에 따르면 Mythos는 인간 해커의 능력을 훨씬 뛰어넘는 방식으로 소프트웨어 취약점을 찾아 악용할 수 있는 것으로 나타났습니다. 토론에 정통한 두 사람은 초안이 보안 보호를 강화하기 위해 "개방형 가중치 모델"에 대한 기술 지침과 모범 사례를 공식화하는 것을 고려하고 있다고 밝혔습니다. 이러한 모델은 훈련 매개변수를 노출하고 사용자가 다양한 작업을 위해 이를 재훈련하고 수정할 수 있도록 합니다. 백악관은 또한 최첨단 AI가 제기하는 중요 시스템에 대한 위협을 방어하기 위해 정보기관을 동원하는 것을 고려하고 있다고 이 문제에 정통한 3명의 소식통이 덧붙였습니다.
Mythos가 제기하는 잠재적인 위험은 Trump 행정부 고위 관리들 사이에 높은 경각심을 불러일으켰습니다. 여러 관계자들은 Anthropic과의 대치 상황에서 연방 기관이 중요한 시스템을 "스트레스 테스트"하는 데 사용할 Mythos를 확보하는 데 어려움을 겪게 될 것이라고 우려하고 있습니다. 최근 몇 주 동안 백악관은 AI 기업과의 긴장을 '냉각'하기 시작했다. 두 소식통에 따르면 행정부는 Anthropic에 대한 공급망 위험 결정을 재평가하기 위해 검토위원회를 설립하려고 노력하고 있지만 이 합의가 최종 AI 행정 명령의 텍스트에 포함될지는 확실하지 않습니다.
외부적으로는 Mythos의 등장으로 백악관 내에서 AI와 국가 안보에 관한 논의 틀이 재편되고 있습니다. 바이든 행정부에서 신흥 기술 고문을 역임했으며 현재 싱크탱크 연구원인 사이프 칸은 이전에는 정부 내에서 관련 위험에 대해 어느 정도 경멸이 있었지만 "지금은 많은 사람들이 이 문제를 극도로 심각하게 받아들이기 시작했다"고 말했습니다. 그는 트럼프 행정부 내에서 실리콘밸리 벤처캐피탈 논리에만 의존하는 AI 정책 시대가 종말을 고할 수도 있다고 본다.