1일(현지시간) SK텔레콤(SKT)·SK하이닉스 계열 AI 반도체 업체인 사피온은 MWC 2023에서 미국 서버 업체인 슈퍼마이크로와 협력해 제작한 딥러닝 서버를 공개했다.
딥러닝 서버란 데이터센터 또는 연구소 등에서 일정 규모 이상인 AI 모델을 학습 또는 추론(실행)하기 위해 필요한 장치다. 기존 서버가 인터넷 서비스를 제공하기 위해 CPU(중앙처리장치)와 메모리 중심으로 만드는 반면 딥러닝 서버는 AI 서비스를 제공하기 위해 AI 반도체(GPU 포함) 위주로 만드는 차이가 있다.
실제로 사피온-슈퍼마이크로의 딥러닝 서버는 랙(RACK) 마운트 1개에 사피온 AI 반도체를 최대 11개 탑재할 수 있다.
슈퍼마이크로 역시 엔비디아 딥러닝 서버에 이어 사피온 딥러닝 서버로 제품군을 확대함으로써 북미 고객의 다양한 수요를 만족시킬 수 있을 것으로 기대된다.
슈퍼마이크로는 델EMC, HPE, 레노버, 화웨이와 함께 전 세계 5대 서버 제조사로 꼽히는 기업이다. 델EMC와 HPE가 북미·유럽 대기업과 이동통신사 데이터센터 공략에 치중하는 것과 달리 중저가 서버로 중견 기업과 연구소 데이터센터를 중심으로 시장 점유율을 확대하고 있다.
현재 AI 반도체 시장은 개별 업체가 기업 데이터센터에 각자 AI 반도체를 납품하는 게 아니라 미국·중국 대형 서버 업체에 AI 반도체를 공급하면 서버 업체가 다양한 딥러닝 서버를 구성해 판매하는 형태를 취하고 있다. 일례로 SKT가 초거대 AI '에이닷' 개발을 위해 도입한 슈퍼컴퓨터 '타이탄'도 HPE에서 엔비디아 딥러닝 서버를 공급받아 이를 병렬 연결하는 형태로 완성됐다.
따라서 국내 AI 반도체 업체들이 전 세계 주요 서버 제조사와 제휴해 딥러닝 서버를 만드는 것에 속도가 붙을 것으로 전망된다. 일례로 국내 주요 AI 반도체 팹리스인 리벨리온도 5대 서버 제조사 중 한 곳과 제휴를 추진하고 있다.
사피온은 북미 시장 공략을 위해 MWC 2023 현장에서 딥러닝 서버 공개와 함께 현재 챗GPT로 인해 중요성이 부각되고 있는 트랜스포머 기반 대규모 언어모델(NLP) 추론을 시연했다.
사피온에 따르면 X220은 트랜스포머 언어 모델 중 가장 널리 활용되는 BERT 기반 AI를 추론할 경우 동급 엔비디아 GPU 대비 추론 성능은 1.6배 우수하면서 전력 소모는 60% 수준에 불과하다. 이를 전력 대비 성능으로 환산하면 최대 4배 우수하다는 결과가 나온다.
한편 AI에 대한 높은 관심을 반영하듯 사피온과 리벨리온의 AI 반도체는 MWC 2023에서 전 세계 바이어들의 이목을 끌었다. 특히 많은 데이터센터 전력 소모로 고민하고 있는 유럽·중동 이통사와 클라우드 업체가 두 회사에 AI 반도체 샘플칩을 요청하는 등 엔비디아 GPU를 대체할 솔루션으로 주목받았다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지