2026년 봄, 다리오 아모데이는 갑자기 실리콘 밸리의 골칫거리가 되었습니다. 황런순은 아모데이를 직접 언급할 뻔했고, AI가 대규모로 일자리를 없앨 것이라고 계속 예측하는 CEO들을 '신 콤플렉스'에 시달리며 맹렬히 비난했다. 일단 CEO가 되면 모든 것을 안다고 생각하기 쉽다. Altman은 Amodei가 마케팅을 위해 "두려움"을 이용하고 있다고 말했고 Yang Likun은 단순히 기술 혁명이 고용에 어떤 영향을 미칠지 이해하지 못했다고 말했습니다.

언론에서도 묻기 시작했습니다. 계속해서 세상의 종말을 경고하는 AI 보스는 왜 멈추지 않는 걸까요?
Amoudi가 사람들을 불쾌하게 만드는 것은 물론 그의 도덕 감각이 너무 높고 감성 지능이 너무 낮기 때문만은 아닙니다.
미묘한 점은 그가 오랫동안 AI의 위험성을 믿어왔고 실제로 이 믿음을 Anthropic의 가장 날카로운 상업용 무기로 만들었다는 것입니다.
OpenAI를 떠나 설립된 이 회사는 더 이상 'AI 보안'이라는 기치 아래 단순한 연구팀이 아닙니다. Claude Code는 연간 수익이 수십억 달러에 달하는 엔터프라이즈 AI 시장에서 가장 강력한 제품 중 하나가 되었습니다. 더욱 과장된 것은 Business Insider에 따르면 민간 2차 시장에서 Anthropic의 가치가 1조 달러를 초과했다는 것입니다.
사람이 도덕적으로 높은 곳에 서서 모든 사람에게 속도를 줄이도록 상기시키는 동시에 필드 중앙에서 베팅을 하고 베팅이 점점 커지면 표적이 되지 않기가 어렵습니다.
01
T AGPH27Public Enemy
Amoudi는 점점 변해가고 있습니다. AI 업계에서 가장 불쾌한 사람.
최근에 총격을 가한 사람은 Huang Renxun입니다.
황런순은 한 팟캐스트에서 AI가 대규모 실업을 초래하고 심지어 '신 콤플렉스'에 시달리면서 인류 멸종의 위험까지 초래할 것이라고 자주 예측하는 기술 CEO들을 불렀습니다.
그의 일반적인 생각은 일단 CEO 자리에 앉으면 사람들이 모든 것을 알고 있다고 생각하기 쉽다는 것입니다. 그러나 AI에 대한 대중적 논의는 종말론의 과장된 이야기에 이끌리기보다는 사실로 돌아가야 합니다.

이 단어들은 이름으로 언급되지 않았지만 아무디를 떠올리지 않기는 어렵습니다.
그리고 Huang Renxun이 Amodei의 AI 위험 서술에 자극을 받은 것은 이번이 처음이 아닙니다.
Amoudi는 항상 더 엄격한 칩 수출 통제를 지지해 왔으며 더 강력한 제한을 요구하는 장문의 기사도 작성했습니다. 그는 올해 다보스 포럼에서 첨단 AI 칩을 중국에 수출하는 것을 '핵무기 판매'에 비유했다.
물론 Jen-Hsun Huang은 이 진술을 받아들이지 않을 것입니다.
다른 팟캐스트에서 황은 이 비유에 대해 질문을 받았을 때 "어리석다"고 직접 말했습니다. 그는 AI 칩을 핵무기와 비교하는 것은 형편없고 비논리적인 비유라고 믿습니다.

Huang Jen-Hsun의 반격이 Nvidia와 Anthropic on Chip 정책 간의 직접적인 이해 상충에서 비롯된 것이라면 OpenAI의 공격은 오래된 라이벌 간의 정면 대결에 가깝습니다.
팟캐스트 대화에서 Altman은 Anthropic이 마케팅을 위해 "공포"를 사용하고 있다고 말했습니다.
그는 다소 가혹한 비유를 사용했습니다. 마치 누군가가 우리가 폭탄을 만들어서 곧 당신 머리에 떨어뜨리면 폭탄 보호소를 1억 달러에 팔 수 있다고 말하는 것과 같습니다.

이 문장은 분명히 Anthropic에서 최근 출시한 Claude Mythos Preview를 가리킵니다. Anthropic의 자체 성명에 따르면 이 네트워크 보안 모델은 너무 강력하여 당분간 대중에게 공개되지 않을 것입니다. 대신 'Wings of Glass'라는 프로젝트에 투입되어 파트너 기관을 위한 방어 보안 업무를 수행하게 됩니다.
이것이 OpenAI의 유일한 "공격"은 아닙니다. 4월 13일, The Verge는 OpenAI의 최고 수익 책임자인 Denise Dresser가 직원들에게 보낸 4페이지 분량의 내부 메모를 공개했습니다. 메모의 주제는 기업 AI 시장에서 어떻게 승리할 것인가인데, 상대를 하나씩 해체할 뻔한 인류학(Anthropic)을 논하는 섹션이 따로 마련되어 있다.

Anthropic의 이야기는 "두려움, 제한, 그리고 소수의 엘리트가 AI를 제어해야 한다는 개념"에 기반을 두고 있다고 씁니다.
그녀는 또한 Anthropic이 코드 시나리오에 너무 많이 의존하고 컴퓨팅 파워 보유량이 충분하지 않다고 말했으며, Anthropic이 Amazon 및 Google과의 수익 공유를 총액 기준으로 포함하여 연간 수익 300억 달러가 약 80억 달러로 과대평가됐다며 연간 수익 명세서에 의문을 제기했습니다.
Amodei와 Ultraman은 오랜 적이며 OpenAI와 Anthropic은 직접적인 경쟁자입니다. Huang Renxun의 칩 사업도 Amodei의 정책 제안에 직접적인 영향을 받았습니다. 그들의 반격이 궤도에 오른 것 같습니다.
하지만 아직 끝나지 않았습니다.
Yann LeCun도 X에 대해 공개적으로 Amoudi를 비판했습니다. 이번에 논란은 AI가 고용에 미치는 영향에서 비롯됩니다.
2025년 Amodei는 Axios와의 인터뷰에서 AI가 향후 1~5년 내에 신입 사무직 일자리의 절반을 없애고 실업률을 10~20%로 끌어올릴 수 있다고 말했습니다. 그는 또한 AI 기업과 규제 당국이 앞으로 다가올 영향을 계속해서 사탕발림하거나 경시할 수 없다고 말했습니다.
Amodei의 고용 판단에 대해 Yang Likun은 X에 대해 "Dario는 틀렸다"며 "기술 혁명이 노동 시장에 어떤 영향을 미치는지 전혀 모른다"고 말했습니다. 그런 질문은 양리쿤 자신을 포함해 AI계 누구보다도 경제학자들이 들어야 한다는 말까지 했다.

여론조차도 의심을 품기 시작했습니다.
잘 알려진 언론의 논평을 예로 들면: 타임즈는 왜 세상의 종말을 경고했던 거대 AI가 스스로 멈추지 않았는지 의문을 제기했습니다. TechCrunch는 Anthropic이 표면적으로 인터넷 보안을 보호하기 위해 Mythos의 개방을 제한했지만 이러한 선택적 개방은 대기업 고객을 확보하고 중소기업이 증류를 통해 기능을 복제하는 것을 방지하여 자체 비즈니스 이익을 보호하는 데 도움이 될 수 있다고 지적했습니다.

분명히 Amoudi는 Anthropic을 이끌고 도덕적으로 높은 지위를 차지하고 있습니다. 하지만 높은 곳에 서 있을수록 표적이 됩니다.
문제는 아무디가 너무 원칙주의적이고, 너무 '안전'을 고집하며, 다른 사람을 불쾌하게 하는 데도 서슴지 않기 때문에, 그가 차례로 공격을 받고 있다는 점입니다.
Amodei가 "도덕적 선도자"가 되려고 노력할수록 그의 도덕적 역설은 더욱 두드러집니다. 그는 필드 중앙에 서서 베팅을 하면서 이 게임이 해로울 수 있다는 점을 모든 사람에게 상기시킵니다.
이거 너무 어색해요.
02
“ '보안왕'은 어떻게 탄생했나
메모에서 OpenAI 최고 수익 책임자인 Denise는 "엘리트"라는 단어를 언급했습니다.
이것은 실제로 Amoudi에서 가장 눈길을 끄는 레이블 중 하나입니다.
도덕적 고지에서의 그의 대결은 미국 전쟁부의 요구 사항에 직면하여 거의 그의 명성의 정점이 되었습니다. Claude의 사용 범위를 제한하고 대규모 감시에 사용하는 것이 허용되지 않으며 의사 결정에 인간이 참여하지 않는 완전 자율 무기에 사용되는 것도 허용되지 않는다고 주장했습니다. 양심상 동의하지 않는다”고 요청했다. 그 순간 대중은 오랫동안 놓친 해방감으로 환호했다. 실리콘밸리 엘리트들은 마침내 다시 일어섰고 더 큰 권력에 “아니오”라고 말했다.
이 '보안왕'이 어디서 왔는지 이해하려면, 우리는 여전히 그의 출신을 되돌아봐야 한다.
Amoudi는 1983년 샌프란시스코에서 태어났습니다. 토스카나 출신의 이탈리아 가죽 세공인인 그의 아버지는 장기간 건강 문제를 겪다가 어렸을 때 사망했습니다. 시카고에서 태어난 유대인계 미국인인 그의 어머니는 도서관 프로젝트 관리자로 일했습니다.
Amoudi는 과학 분야에서 표준적인 우등생이었습니다. 어릴 때부터 샌프란시스코에서 가장 유명한 명문 공립 고등학교 중 하나를 다녔고, 2000년 미국 물리학 올림피아드 대표팀에 선발됐다. 대학에 입학한 후 미국 최고의 과학 및 공학 학교 중 하나인 캘리포니아 공과대학(California Institute of Technology)에 진학한 후 스탠포드로 편입해 물리학 학사 학위를 취득하고, 마침내 프린스턴으로 가서 생물물리학 박사 학위를 취득했다.
그는 물리학, 신경과학, AI 연구를 다차원적으로 결합한 기술 인물로, 이는 그의 복잡한 관점을 결정하기도 합니다.2014년 Ng는 음성 인식 시스템 연구에 참여하기 위해 실리콘 밸리에 있는 Baidu의 인공 지능 연구소에 Amodei를 영입했습니다. 나중에 그는 Deep Speech 2 논문의 저자 중 한 명이 되었습니다. 이 시스템은 영어와 중국어를 포괄하는 엔드투엔드 음성 인식에 중점을 둡니다. 또한 대규모 데이터, 컴퓨팅 성능 및 교육을 사용하여 기존 음성 인식 프로세스를 다시 실행하려고 시도합니다. Amodei가 규모에 대한 초기 본능을 개발하기 시작한 것은 바로 이 시기였습니다. 그는 나중에 인터뷰에서 모델이 더 크고 데이터가 더 많고 훈련 시간이 길수록 결과가 계속 좋아질 것이라는 사실을 발견했다고 회상했습니다. 그에게는 나중에 GPT와 Claude의 대형 모델 세대를 통해 전달된 Scaling 신념이 이미 Baidu의 음성 인식의 기반을 마련했습니다.
Daniela Amodei도 중요한 역할을 합니다. 그녀는 또한 OpenAI를 떠났고 남매는 Anthropic을 공동 창립했습니다.
남매가 듀얼 코어 구조를 형성합니다. Amoudi는 기술 라인과 안전 이야기의 대표자에 가깝고 Daniela는 회사 운영, 조직 구축 및 비즈니스 홍보를 담당합니다. 한편으로는 보안 연구 기관처럼 보이고, 다른 한편으로는 신속한 자금 조달과 급속한 확장을 지원하는 AI 회사처럼 보이는 오늘날 Anthropic의 독특한 기질은 주로 이러한 결합에서 비롯됩니다.

이 가족 유대는 Anthropic에 특별한 안정감을 가져오며, 회사를 다른 방식으로 AI를 하고 싶다고 생각하면서 강한 자기 정체성을 가지고 기존 조직에서 분리된 소규모 그룹에 더 가깝습니다.
2020년 말, OpenAI는 매우 정중한 조직 업데이트를 발표하여 당시 연구 부사장 Amodei가 떠난다고 발표했습니다. 이 기사에서는 지난 5년 동안의 공헌에 대해 감사를 표하고, GPT-2, GPT-3에 참여했다고 언급하고, Ilya Sutskever 및 다른 사람들과 공동으로 연구 방향을 설정했습니다.
가장 미묘한 점은 OpenAI도 Amoudi와 몇몇 동료들이 "제품 개발보다는 연구에 더 집중할 수 있는" 새로운 프로젝트를 시작할 계획이라고 썼다는 것입니다. 다른 페이지의 대부분은 보안 분야에서 OpenAI의 의지를 보여주기 위해 사용됩니다.

몇 년 후, Anthropic과 OpenAI의 갈등이 공개되자 사람들은 그해의 우호적인 '이별'을 되돌아보았습니다. AI 역량 강화와 보안 경계의 우선순위를 두고 양측이 이미 이견을 보였다는 점은 어렵지 않게 볼 수 있다.
몇 달 후 Anthropic이 설립되었습니다. 그 이후로 보안은 Amodei의 개인적인 입장에서 회사의 중추로 서서히 변화해 왔습니다.
"책임 있는 확장 정책"인 RSP가 있습니다. ASL 수준을 사용하여 AI 버전의 생물 안전 수준과 약간 유사한 다양한 기능 단계에서 모델에 대한 위험 요구 사항을 설정합니다. 이는 일련의 "헌법적" 원칙을 통해 모델 행동을 안내합니다. 또한 해석 가능성 연구에 지속적으로 투자하고 모델 블랙박스를 열려고 시도합니다.
Amodei는 확실히 "보안"을 활용하고 있지만 장기적으로 보안을 진정으로 믿는 경우에만 가능합니다. OpenAI 탈퇴부터 Anthropic 창립, RSP, AI "헌법", 설명 가능성, 모델 위험 분류 및 방어 계약 경계에 이르기까지 그의 행동은 장기적으로 상당히 일관되었습니다.
아무디가 복잡한 곳이기도 합니다.
그는 강한 엘리트 자신감을 가지고 있습니다. 저는 더 큰 위험을 보아왔기 때문에 모든 사람에게 더 천천히, 더 엄격하게, 더 두려워하라고 상기시킬 자격이 있습니다. 그러나 그를 겸손해 보이게 만드는 것은 바로 그 자신감입니다.
그리고 아무디가 사업 회사를 운영하기 시작하면서 '도덕'과 사업이 만나면서 미묘한 균형을 유지하기가 더욱 어려워집니다.
03
“안전”이 주류가 될 때 company
“안전”은 Anthropic의 사업이자 심사 메커니즘입니다.
Anthropic의 특별한 점은 처음부터 OpenAI를 떠난 사람들이 모여 형성된 새로운 조직이라는 점입니다. 퇴사 이유에는 기술적 경로, 보안 개념, 'AI의 미래를 누가 정의해야 하는지'에 대한 의견 차이 등이 포함됐다.
따라서 문화는 운영 체제와 마찬가지로 Anthropic에서 특히 중요합니다.

Amoudi는 연구원의 기질을 지닌 조직 디자이너입니다. 그는 한 인터뷰에서 자신의 시간 중 약 1/3, 심지어 40%가 Anthropic의 문화를 개선하는 데 소비된다고 말한 적이 있습니다.
앤트로피픽은 표면적으로는 늘 경계와 자제, 경계를 이야기하지만 내부적으로는 미지근한 문화가 아닙니다. 반면 Anthropic에는 개인 공개 노트북과 유사한 Slack 채널이 있어 직원들이 자신의 아이디어와 업무 진행 상황을 작성하고 심지어 Amoudi에 직접 토론할 수도 있습니다.
앤트로픽의 진입 문턱인지, 내부 문화의 지속적인 형성과 충돌인지, 일종의 인재 선별 메커니즘이 형성됐을 가능성이 있다.
지난 1년 동안 Meta는 AI 팀을 강화하기 위해 인력을 모집하기 위해 여기저기서 수표장을 흔들었습니다. AI 산업에서 인재의 가격은 과장된 수준으로 올랐고, 최고의 연구자와 엔지니어는 자유시장에서 거의 슈퍼스타가 됐다. 이런 종류의 밀렵에 직면한 일부 회사는 본능적으로 "가격을 따르거나" 적어도 직원 급여를 인상하고 사람을 최우선으로 생각한다고 명시적으로 명시합니다.

Amoudi는 이 작업을 수행하지 않았습니다. 그는 외부 회사가 누군가에게 엄청난 제안을 한다고 해서 Anthropic이 보상 원칙을 즉시 위반하지 않을 것이라고 공개적으로 설명했습니다. 그는 주커버그가 다트처럼 무작위로 누군가의 이름을 쳤다고 해서 그 사람이 옆에 있는 똑같이 재능 있는 동료보다 10배 더 많은 것을 받아야 한다는 의미는 아니라고 말했습니다.
더 흥미로운 점은 Amodei가 Meta의 밀렵에 직면했을 때 일부 Anthropic 직원이 Zuckerberg와 대화조차 꺼렸다고 말했다는 것입니다. 이 문장에는 확실히 과시하는 요소가 있습니다. 그러나 그것이 정말로 전달하고 싶은 것은 Anthropic 직원들 사이의 "합의"가 존재하고 강력하다는 것입니다.
Amodei는 Anthropic이 단순히 더 빨리 달리고 싶어하는 또 다른 AI 회사가 아니라는 점을 직원들에게 설득해야 합니다. 동시에 그는 이 회사가 정말 빠르게 성장할 수 있도록 이끌어야 합니다. 그렇지 않으면 안전에 관한 이야기가 아무리 아름답더라도 게임 외적인 도덕적 논평에 불과할 뿐입니다.
"안전"은 사업적으로 큰 성과를 거두었습니다.
Anthropic은 처음부터 신뢰성과 제어 가능성에 대한 요구 사항이 더 높은 고객을 자연스럽게 유치했습니다. Claude가 처음 출시되었을 때 신뢰성, 예측 가능성 및 부팅 가능성을 강조했습니다. 초기 파트너는 Notion, Quora, DuckDuckGo 및 Juni Learning과 같은 지식 생산, 검색, 교육 및 워크플로 도구였습니다.
Anthropic은 "가장 저렴한 모델"을 판매하지 않습니다. 기업, 정부, 법규, 금융, 의료, 교육, 공공 부문 등 이러한 고객은 안정성, 규정 준수, 보안 경계 및 장기 책임에 더 관심을 갖습니다. 클로드가 저가 노선이 아니라는 점 역시 가격을 보면 알 수 있다. Claude Opus 4.7의 가격은 입력 토큰 백만 개당 미화 5달러, 출력 토큰 백만 개당 미화 25달러입니다. Claude Sonnet 4.6은 입력 US$3, 출력 US$15입니다. 이에 비해 xAI의 Grok 4.20은 입력이 $2이고 출력이 $6인데 이는 분명히 더 급진적입니다. OpenAI의 GPT-5.5는 입력 5달러, 출력 30달러로 클로드 오푸스(Claude Opus)와 같은 가격대에 속한다.

Reuters는 또한 이전에 Anthropic이 300,000개 이상의 상업 및 기업 고객을 보유하고 있으며 이들이 수익의 약 80%를 기여한다고 보고했습니다. 기업 고객은 사용량에 따라 비용을 지불하며 보다 안정적인 보존과 더 넓은 확장 공간을 제공합니다. 코드, 오피스 플로우, 클라우드 플랫폼, 정부 시스템에 들어가면 수익은 일반 구독 상품과 비교할 수 없습니다.
이와 대조적으로 OpenAI는 ChatGPT를 통해 C 측에서 가장 큰 성과를 거두었으며 실제로 전례 없는 규모로 대량 사용자를 교육했습니다. 그러나 C사이드 사용자가 많다고 해서 수익구조가 가장 좋다는 뜻은 아니다.
OpenAI의 최근 발표에 따르면 기업 수익이 전체 수익의 40%를 넘어섰으며, 2026년 말까지 소비자 측면을 따라잡기를 희망하고 있습니다. 즉, OpenAI마저도 엔터프라이즈 시장 진출을 위해 열심히 노력하고 있다는 것입니다.

Anthropic과 미국 전쟁부 DoW와의 협력이 대표적인 예입니다. 오랫동안 DoW가 “기밀 분야”에서 협력한 유일한 AI 회사는 Anthropic이었습니다. Claude는 정보 분석, 모델링 및 시뮬레이션, 전투 계획, 사이버 작전과 같은 작업에 사용됩니다.
이러한 사고방식에 따라 Anthropic과 DoW 사이의 치열한 “투쟁”을 되돌아보면 Amodei가 보안을 하나의 비즈니스로 다루는 능력을 보여줍니다. DoW와의 협력을 잃더라도 “대중 감시”와 “자율 무기”라는 결론을 강조함으로써 Anthropic의 대중적 가시성과 “신뢰성”이 더 높은 수준으로 높아졌습니다. 그리고 그것은 자본 시장에서 전례 없는 호감을 얻었습니다.
Anthropic의 연간 수익은 2025년 말 미화 90억 달러에서 2026년 4월 미화 300억 달러로 급증했습니다. 올해 2월에는 평가액 3,800억 달러로 300억 달러의 자금 조달을 완료했고, 이후 구글은 이에 최대 400억 달러를 투자할 계획이었다. 일부 보고서에 따르면 2차 시장에서의 가치는 1조 1천억 달러에 달했습니다.
보안은 구속처럼 들리지만 Anthropic에서는 결국 더 높은 수준의 비즈니스 언어가 됩니다.
그러나 이 관리 기술에는 확실히 위험한 측면이 있습니다.
기업이 '안전'을 조직적 신념으로 전환하면 자연스럽게 도덕적 우월감을 갖게 되고, 경쟁자를 무책임한 사람으로 묘사하고 비즈니스 선택을 가치 선택으로 포장하기가 더 쉬워질 것입니다.
이것이 Anthropic이 성공할수록 Amoudi가 더 불편해지는 이유입니다.
04
“보안”의 양면TAGPH 10
아무디만 바라보는 건 좀 순진할 것 같아요 이상과 수익은 있지만 감성 지능이 낮은 "과학 및 공학 남자"로서 그는 항상 진실을 말하고 다른 사람들을 불쾌하게 만듭니다.
월스트리트 저널에는 Amodei와 Ultraman의 10년간의 불화를 되돌아보는 기사가 실린 적이 있습니다.
Amodei의 OpenAI 스토리는 '보안 개념의 차이'만으로는 설명하기가 어렵습니다.

2018년 머스크가 물러난 후, 아모데이는 브록만(공동 창업자 중 한 명)과 수츠코베가 권력을 잡지 않는다는 조건을 유지하기로 합의했습니다. 그는 먼저 기술적인 것이 아니라 전력 분배에 관해 이야기했습니다. 경로.
이후 키 모델 프로젝트에서 그와 여동생 다니엘라가 팀을 이루어 합류를 원하는 브록만을 막았다. 그 이유 중 하나는 특정 핵심 연구원이 "그와 함께 일하고 싶지 않았다"는 것이었습니다. 연구원은 나중에 자신이 고위 간부들에 의해 "대리 무기"로 사용되었다고 설명했는데, 이는 Amodei가 동맹을 형성하기 위해 사람들을 이용하는 방법을 알고 있음을 보여줍니다.
GPT-2/3이 인기를 끌면서 그는 신용 귀속 및 노출에 점점 더 민감해졌습니다. 그는 Brockman이 팟캐스트에서 "각광을 훔치는" 것에 불만이 있었고 Altman과 Brockman이 자신 없이 Obama를 만날 것이라는 사실을 알고 화가 났습니다.
이듬해 그는 연구 부사장으로 승진해 달라고 요청했습니다. Altman은 이에 동의하고 이사회 이메일에 "Amody는 자신이 승인하지 않는 프로젝트를 얕보지 않겠다고 약속합니다"라는 휴전 조항을 포함시켰습니다.
이러한 세부 정보는 보안이 Amoudi의 신조이자 조직의 날카로운 무기임을 보여줍니다. 그는 조건에 대해 이야기하고, 프로젝트를 위해 싸우고, 발언권을 위해 싸우고, 핵심에 남을 수 있는 사람을 정의하기 위해 "위험"이라는 언어를 사용합니다.
드디어 OpenAI를 떠나 Anthropic을 설립했습니다. 그것은 이상적인 이탈이라기보다는 오히려 내부 권력 투쟁이 실패한 이후의 전장의 움직임이었다.
그가 Anthropic의 경영권을 맡게 되자 상황은 더욱 복잡해졌습니다. Anthropic은 더 이상 연구실의 이상적인 시험장이 아니라 빠르게 성장하는 상업용 전함입니다. 이때 안전은 순수한 원칙에서 견고한 제품 판매 포인트로 바뀌었습니다.
Anthropic이 AI의 위험을 크게 강조할수록 자체 존재의 필요성도 더욱 강조됩니다. 너무 빠른 속도로 운영되는 다른 업체의 이름을 많이 지목할수록 기업, 정부 및 규제 기관의 가장 신뢰할 수 있는 파트너로 자리매김할 수 있습니다.
내러티브는 자연스럽게 도덕적 비교를 담고 있습니다. 클로드를 선택하는 것은 단순히 모델을 선택하는 것이 아니라 보다 책임감 있고 제어 가능한 경로를 선택하는 것입니다.
경쟁업체의 경우 이는 매우 짜증나는 일입니다. 당신은 단지 제품을 판매할 뿐이고, 편리하게 다른 사람들을 무책임한 도박꾼처럼 보이게 만듭니다. 보안은 차별화를 위한 해자이자 마케팅 도구가 되었습니다. 기업 고객은 "마음의 평화"를 위해 기꺼이 더 많은 비용을 지불할 의향이 있으며, 정부 부서는 민감한 프로젝트를 "가장 안전한" 회사에 넘겨줄 가능성이 더 높습니다.
이 과정에서 보안은 정치적 협상카드가 되기도 했다.
Axios는 2026년 1분기에 Anthropic의 연방 로비 지출이 160만 달러에 달해 OpenAI의 100만 달러를 넘어 자체 기록을 세웠다고 보고했습니다. 앞서 AI 투명성과 안전 가드레일에 초점을 맞춘 초당파 옹호 단체에 2천만 달러를 투자하겠다고 발표한 바 있으며, 정책팀을 확대하고 워싱턴에 장기 사무소를 설립할 계획이다.
솔직히 말하면, 아모데이는 이미 AI시대 게임의 룰을 놓고 경쟁하고 있습니다.
Amodei의 복잡성은 이 두 가지가 동시에 사실일 수 있다는 사실에 있습니다. 그는 AI 보안을 믿고 실제로 AI 보안을 Anthropic의 가장 날카로운 상용 무기로 전환했습니다. 보안은 그의 종교이자 권력의 지렛대입니다.
원칙과 이해관계는 단순히 반대되는 것이 아니라 서로를 먹여주고 강화시켜 줍니다. 그를 "보안 왕"으로 칭찬하고 일부 사람들에게 영리한 상인으로 간주하게 만드는 것은 바로 이러한 진실과 거짓의 얽힘입니다.
인류적 위험을 더 잘 설명할수록 위험을 정의할 기회가 더 많아집니다. 위험을 정의할 수 있는 기회가 많을수록 AI 시대의 규칙의 중심에 자신을 둘 수 있습니다.
이것이 아무디의 '안전마법'이고, '공공의 적'은 마법을 부리는데 필요한 부작용이다.
아마도 그는 그것을 즐기고 있을지도 모릅니다.