수년간 인공지능 모델 훈련과 추론에 모두 사용할 수 있는 칩을 생산해온 구글은 두 가지 작업을 서로 다른 프로세서로 분할하고 있으며, 이는 AI 하드웨어 분야에서 엔비디아와 경쟁하기 위한 최근 움직임이다. 구글은 수요일 8세대 텐서 처리 장치(TPU)에 이러한 변경 사항을 적용할 것이라고 발표했으며, 두 칩 모두 올해 말 출시될 예정입니다.

구글의 인공 지능 및 인프라 부문 최고 기술 책임자(CTO)인 아민 와다트(Amin Wahdat)는 블로그 게시물에서 "AI 에이전트의 등장으로 업계는 교육 및 배포 요구에 맞게 전문적으로 맞춤화된 칩의 혜택을 누릴 것이라고 믿는다"고 말했습니다.
올해 3월 Nvidia는 칩 스타트업 Groq를 200억 달러에 인수하여 얻은 기술의 도움으로 모델이 사용자 질문에 신속하게 응답할 수 있게 해주는 곧 출시될 칩 제품을 홍보했습니다. Google은 Nvidia의 큰 고객이지만 클라우드 서비스를 사용하는 기업의 대안으로 TPU를 제공하기도 합니다.
세계 최고의 기술 기업 대부분은 컴퓨팅 효율성을 극대화하고 특정 응용 시나리오의 요구 사항을 충족하기 위해 인공 지능 전용 반도체를 개발하고 있습니다. Apple은 수년 동안 자체 신경망 엔진 AI 구성 요소를 iPhone 칩으로 개발해 왔습니다. 마이크로소프트는 올해 1월 2세대 AI 칩을 출시했다. 지난주 Meta는 다양한 AI 프로세서를 개발하기 위해 Broadcom과 협력할 것이라고 발표했습니다.
Google은 이러한 추세의 선구자입니다. 2015년 구글은 자체 개발 칩을 사용해 AI 모델을 구동하기 시작했고, 2018년에는 클라우드 서비스 고객에게 임대 서비스를 제공했다. Amazon Cloud Technology는 2018년에 AI 요청 처리를 위한 Inferentia 칩을 출시했고, 2020년에는 AI 모델 훈련을 위한 Trainium 프로세서를 출시했습니다.
투자 기관인 DADAvidson의 분석가들은 작년 9월 TPU 사업과 Google DeepMind AI 팀의 총 가치가 약 9000억 달러에 이를 것으로 추정했습니다.
현재 어떤 거대 기술 기업도 엔비디아를 대체할 수 없으며, 구글은 새 칩의 성능을 AI 칩 리더의 제품과 비교조차 하지 않았습니다. 하지만 구글은 새로운 트레이닝 칩의 성능이 지난해 11월 출시된 7세대 아이언우드 TPU 대비 2.8배, 가격은 동일하다고 밝혔다. 추론 칩의 성능은 80% 증가합니다.
Nvidia는 곧 출시될 Groq3LPU 하드웨어가 이달 초 상장 신청서를 제출한 AI 칩 제조업체인 Cerebras에서도 사용하는 기술인 SRAM(Static Random Access Memory)을 대량으로 사용할 것이라고 밝혔습니다. 코드명 TPU8i인 Google의 새로운 추론 칩에도 SRAM이 탑재되어 있습니다. 싱글 칩에는 384MB SRAM이 내장되어 있으며, 용량은 Ironwood TPU의 3배입니다.
Google의 모회사인 Alphabet의 CEO인 Sundar Pichai는 블로그를 통해 칩 아키텍처가 "수백만 개의 에이전트를 동시에 실행하는 요구 사항을 충족하기 위해 비용 효율적인 방식으로 대규모 처리량과 짧은 대기 시간을 달성하도록 설계되었습니다"라고 썼습니다.
Google AI 칩의 적용 규모가 확대되고 있습니다. Google은 Citadel Securities가 Google TPU를 기반으로 정량적 연구 소프트웨어를 구축했으며 미국 에너지부 산하 17개 국립 연구소 모두 이 칩을 기반으로 개발된 AI 공동 과학자 소프트웨어를 사용한다고 밝혔습니다. 인공 지능 회사인 Anthropic도 수 기가와트의 Google TPU 컴퓨팅 성능을 사용하기로 약속했습니다.