
인공지능(AI) 패권 경쟁에서 인프라 확보가 중요해지면서 글로벌 빅테크 기업들이 자체 AI칩 개발에 속도를 내고 있다. 특히 AI 칩 시장에서 90% 이상을 차지하고 있는 엔비디아의 의존도를 줄이려는 움직임이 본격화됐다.
10일 업계에 따르면, 구글 클라우드는 지난 9일(현지시간) 추론에 특화된 7세대 텐서처리장치(TPU) '아이언우드(Ironwood)'를 공개했다. 직전 모델인 6세대 TPU '트릴리움'과 비교해 전력 성능은 2배, 고대역폭 메모리(HBM) 용량은 6배 크다.
구글 클라우드 측은 "(아이언우드는) 지금까지 개발된 TPU 중 가장 강력한 칩"이라면서 "구글 최신 모델 2.5와 같은 정교한 AI 모델의 연산 요구를 충족시킬 수 있다"고 밝혔다.
글로벌 빅테크의 AI칩은 모델 학습과 추론에 맞춤형 설계와 비교적 저렴한 비용을 강점으로 내세워 엔비디아 GPU에 맞서고 있다.
구글의 TPU는 AI 딥러닝에 최적화된 칩이다. 챗봇·코드, 미디어 콘텐츠 생성 등 AI 처리 요구량에 맞게 확장할 수 있는 게 특징이다. 고밀도 거대언어모델(LLM)의 학습 효율을 높이려면 그래픽처리장치(GPU)보단 TPU가 적합할 수 있다는 것이다. 일례로 카카오는 구글의 TPU '트릴리움'을 신규 AI서비스 '카나나' 개발에 활용하고 있다. 카나나가 GPU 기반으로 개발됐으나, 학습 성능과 언어 추론 처리의 효율성을 높이기 위해 구글 TPU로 전환했다고 구글 클라우드 측은 전했다.
아마존웹서비스(AWS)도 자체 AI 칩인 '트레이니움'과 '인퍼런시아'를 활용하면 학습 효율을 높일 수 있다고 강조한다. 엔비디아 GPU보다 40% 저렴한 비용으로 고성능 AI 모델을 학습시킬 수 있다는 것이다. 현재 차세대 AI칩 '트레이니움3'를 개발 중이다. 이는 지난해 말 선보인 '트레이니움 2' 대비 성능이 2배, 효율성은 40% 높고, 올해 말 공식 출시할 예정이다. 트레이니움2는 생성형 AI 학습에 최적화된 칩이다. 일례로 앤트로픽은 트레이니움 칩을 활용해 클로드 3.5 하이쿠 모델 학습 속도를 60% 향상시켰다.
마이크로소프트(MS)는 지난 2023년 자체 개발한 AI 칩 '마이아 100'과 함께 중앙처리장치(CPU) '코발트 100'을 공개했다. 메타도 최근 AI 훈련용 반도체 '메타 훈련 및 추론 가속기(MTIA)'의 생산테스트를 시작했고, 내년부터 AI 학습에 본격 도입할 계획이다. 메타는 엔비디아의 주요 고객사 중 하나인데, 자체 칩을 개발해 엔비디아 의존도를 낮추겠다는 전략이다. 오픈 AI도 수개월 내에 맞춤형 AI 제작을 위한 첫 공정을 시작하고, 내년부터는 TSMC와 협력해 자체 AI칩을 대량 생산할 계획이다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지