차세대 솔루션 필요성 커지며 신생 반도체사들 ‘전성시대’
삼바노바·그래프코어·세레브라스 등 업계서 두각 나타내

[테크월드뉴스=김창수 기자] 4차 산업혁명 시대 도래와 더불어 글로벌 반도체업계가 ‘춘추전국시대’를 맞은 가운데 핵심 하드웨어 AI(인공지능) 칩에 대한 관심이 뜨겁다. 시장조사기업 스태티스타에 따르면 글로벌 AI 반도체 시장 규모는 지난 2019년 92억 9000만 달러(한화약 12조 3000억 원)에서 오는 2030년 2533억 달러(약 336조 3000억 원) 수준으로 크게 늘어날 전망이다.

인텔·구글·엔비디아 등 기존 강자들 점유율이 높은 상황에서 신기술로 무장한 스타트업들도 앞다퉈 ‘판’에 뛰어들고 나서 향후 시장 구도 변화에도 관심이 쏠린다. 삼바노바·그래프코어·세레브라스·하바나랩스·헤일로 등 신생 업체들은 차세대 솔루션을 바탕으로 대규모 투자를 유치하는 한편 활발한 협업을 전개하고 있어 주목된다.

인공지능(AI) 반도체 이미지. [사진=게티이미지뱅크]
인공지능(AI) 반도체 이미지. [사진=게티이미지뱅크]

◆ 삼바노바, 엔비디아에 AI 시스템 ‘도전장’…고효율 아키텍처 장점

삼바노바는 회자되는 주요 글로벌 신생 AI 반도체사 중 가장 많은 누적 투자액을 유치한 기업으로 꼽힌다. 업계에 따르면 현재 삼바노바는 소프트뱅크 비전펀드, 인텔 캐피탈, 블랙락 등으로부터 11억 달러(약 1조 4600억 원) 규모 누적 투자를 받아 이미 스타트업 수준 규모를 넘어섰다. 

삼바노바는 지난 2019년 세계반도체연맹(GSA)이 선정하는 ‘올해의 주목할 스타트업’으로 뽑힌 바 있다. 알고리즘에서 실리콘까지 소프트웨어·하드웨어 통합 형태 인공지능 지원 반도체를 지향한다. 자사 AI 반도체를 외부에 판매하지 않고 AI 반도체팜을 구축한 후 이를 클라우드 형태로 기업에 임대하는 사업을 전개 중이다.

지난해에는 ‘데이터스케일 SN30(DataScale SN30)’이란 새 하드웨어-소프트웨어 통합 AI 시스템을 출시했다. 데이터스케일 SN30은 이전 SN10 시스템의 성능을 대폭 개선하고 대규모 AI 모델을 지원하도록 업그레이드한 차세대 시스템이다.

A100 텐서 GPU 기반 엔비디아 DGX A100 시스템과 경쟁하는 삼바노바는 새로운 데이터스케일 SN30 시스템이 대규모 AI 모델을 지원하며 GPT 모델을 빠른 속도로 훈련할 수 있다고 설명했다. 데이터스케일 SN30은 DGX A100 시스템에 비해 특정 AI 워크로드에서 6배 속도 향상이 가능하고 12.8배 더 많은 메모리 용량을 제공한다.

하드웨어와 소프트웨어를 통합해 더 빠른 컴퓨팅 능력을 제공하는 것도 SN30 디자인의 또 다른 핵심이다. 데이터스케일 SN30 시스템은 소프트웨어 정의 접근 방식으로 데이터 유형에 따라 CPU에서 GPU로 전환할 수 있다. 이 부분이 SN30 아키텍처가 다른 AI 아키텍처와의 차별점이다. 사용자는 워크로드 요구 사항을 충족하도록 프로세서를 재구성해 신경망에 고효율 성능을 제공할 수 있다.

◆ ‘6.9억 달러 투자 유치’ 그래프코어…최근엔 경영난

영국 AI 반도체 기업 그래프코어는  세쿼이어 캐피탈, 델 테크놀로지스 캐피탈, BMW i 벤처 등으로부터 누적액 6억 9200만 달러(약 9187억) 규모 투자를 유치, 삼바노바 뒤를 이었다.  그래프코어는 지난 2018년 약 17억 달러(약 2조 2400억 원) 기업가치를 인정받았다. 그래프코어는 마이크로소프트·델 등 미국 주요 빅테크사 외에 중국·싱가포르 등 아시아 지역에도 고객사를 두고 있다

반도체 IPU(Intelligence Processing Unit; 지능처리장치)에 주력하고 있는 그래프코어는 2020년 자사 2세대 IPU를 당시 최신 엔비디아 A100 GPU와 비교한 벤치마크 점수를 발표했다. 그래프코어 발표에 따르면 2세대 IPU는 엔비디아 A100보다 AI 훈련에서 3.7~18배, AI 추론에서 3.4~600배 높은 성능을 보였다.

한편 그래프코어는 최근들어 경영난에 직면했다. 영국 기술 매체 ‘The Register’ 보도에 따르면 그래프코어는 지난해 하반기 글로벌 경기 불황 따른 경영 침체로 감원 절차를 진행했다. 이 매체는 또 같은 해 10월 마이크로소프트와의 계약이 종료되며 기존 17억 달러에 달했던 그래프코어 기업가치도 10억 달러(약 1조 3200억 원) 줄었다고  보도했다.

반도체 AI 스타트업 세레브라스의 슈퍼컴퓨터. [사진=세레브라스]
반도체 AI 스타트업 세레브라스의 슈퍼컴퓨터. [사진=세레브라스]

◆ 세레브라스, 고해상도 컴퓨팅 시뮬레이션 기술로 딥 러닝 ‘박차’

지난 2015년 설립된 AI 딥 러닝 애플리케이션 개발사 세레브라스 또한 대규모의 자금 투자 유치에 성공한 반도체 스타업으로 꼽힌다. 세레브라스 측과 업계에 따르면 회사는 총 7억 2000만 달러(약 9560억 원)의 시리즈F 투자금을 유치했다.

고성능 시스템 AI 작업은 통상 여러 대 시스템을 연결한 클러스터 환경 기반이 일반적이다. 그러나 세레브라스는 지난 2019년 1개의 거대한 프로세서만으로 동작하는 자체 개발 서버를 출시했다. 세레브라스의 AI 칩인 WSE(Wafer Scale Engine)는 가로·세로 각각 약 21cm(8.46인치)다. 우표 크기의 일반 CPU나 GPU보다 50배 이상 크다.
 
세레브라스는 이 칩을 데이터센터에 바로 설치할 수 있는 완성된 서버 형태로 ODM 업체에 판매한다. 세레브라스 WSE 칩은 1조 2000억 개 트랜지스터를 집적했으며 40만 개 코어와 18GB 캐시 메모리를 갖췄다. 일반적 PC 프로세서는 약 20억 개의 트랜지스터와 4개 가량 코어, 수 MB의 캐시 메모리를 지녔다. 고성능 GPU라도 210억 개 트랜지스터와 수천 개 코어에 불과한 것에 비춰봤을 때 압도적 성능을 자랑한다.

세레브라스는 올해 2월에는 실시간에 준하는 속도의 고해상도 컴퓨팅 시뮬레이션을 첫 수행했다고 밝혀 주목받았다. 여러 대 CS-2 어플라이언스로 구동하는 피츠버그 슈퍼컴퓨팅센터 AI 슈퍼컴퓨터가 시연한 해당 작업에서 세레브라스는 ‘열 구동 유체 흐름’(thermally driven fluid flows)을 시뮬레이션했다고 말했다. CS-2 어플라이언스는 WSE 프로세스를 이용해 동작한다. 

세레브라스는 CS-2 시스템으로 구동되는 WFA API가 기존 GPU 구동 NETL의 기존 줄 슈퍼컴퓨터에서 가능했던 것보다 약 470배 빠른 레일리-베르나르 대류(얇은 층상 유체를 아래쪽에서 균일 가열할 때 생기는 세포 모양 대류구조)를 시뮬레이션했다고 말했다.

피츠버그 슈퍼컴퓨팅 센터 AI 책임자 파올라 뷰트라고는 해당 시뮬레이션에 대해 “최근 성과는 세레브라스와 협력한 연구 진전을 위해 우리가 목표한 위대한 발견 중 하나”라고 밝혔다.

◆ 하바나랩스, 인텔 피인수 후에도 독립경영 유지…‘가우디2’ 성능 눈길

지난 2016년 설립된 이스라엘 AI 프로세서 회사 하바나랩스는 지난 현재까지 1억 2000만 달러(1590억 원)의 누적 투자금액을 유치했다. 최근에는 2018년 인텔 캐피탈이 주도하는 시리즈B 펀딩으로 7500만 달러(약 996억 원) 규모 투자를 받았다. 

데이터센터용 딥러닝 가속기를 개발해 온 하바나랩스는 2018년 AI 추론 프로세서 고야(Goya)를, 2019년 6월 AI 학습 프로세서인 가우디(Gaudi)를 출시했다. 회사는 동일 수량 GPU 탑재 시스템과 비교해 가우디가 최대 4배 빠른 연산 처리가 가능하다고 밝힌 바 있다.

하바나랩스는 이후 2019년 12월 인텔에 인수됐다. 당시 인수 금액은 20억 달러(약 2조 6000억원)였다. 하바나랩스는 인수 이후에도 동일하게 이스라엘에 본사를 두고 기존 경영진이 남아 독립 사업 부문을 영위키로 해 업계 주목을 받았다.

이후 지난해 5월 하바나랩스는 인텔 비전 행사에 자회사 자격으로 참가, 인공지능(AI) 학습용 프로세서 ‘가우디2' 및 추론용 프로세서 '그레코'를 공개했다. 

가우디2 프로세서와 그레코 프로세서는 인공지능 딥러닝 애플리케이션을 위해 개발됐다. 데이터 센터 컴퓨터 비전, 자연어 애플리케이션을 위한 고성능 모델 학습과 추론에 활용될 수 있다고 하바나랩스 측은 밝혔다.

가우디2 프로세서는 1세대 가우디와 동일한 아키텍처 기반으로 설계됐으며 인공지능 학습 성능이 크게 향상됐다. 현존하는 클라우드 내 GPU 기반 솔루션과 아마존 ‘EC2 DL1 인스턴스’는 물론 슈퍼마이크로 가우디 훈련 ‘온프레미스’ 서버 대비 40% 높은 가격 대비 성능을 제공한다.

◆ 헤일로, 딥러닝 성과·도메인 특화 프로세서 장점

헤일로는 지난 2017년 이스라엘에서 설립된 에지 장치용 AI 프로세서다. 초기 설립자들이 이스라엘 방위군 엘리트 부대 구성원들로 이뤄진 것이 특징이다. 헤일로는 완성차·스마트시티·도소매업을 포함 다양한 산업용 기기에 AI 프로세서를 공급한다. 

2021년 10월 1억 3600만 달러(약 1797억 원)의 시리즈C 투자 유치, 2020년 3월 시리즈 B 자금 모집을 통해 6000만 달러(약 797억 원)를 모은 것을 비롯, 현재까지 약 2억 2390만 달러(약 2970억 원)의 투자금을 받았다. 

헤일로는 2019년 5월 엣지 디바이스에서 추론 속도 향상을 위한 딥러닝 프로세서 ‘Hailo-8’을 공식 발표했다. 헤일로에 따르면 Hailo-8은 칩 레벨(시스템 레벨에서는 ASIL-D)에서 ASIL-B 인증과 AEC-Q100 인증을 획득했다.

기존의 컴퓨터 프로세서는 규칙 기반(rule-based) 폰 노이만 아키텍처를 사용했다. CPU·GPU·DSP·CPU 버스 연결 가속기 등이 모두 폰 노이만 아키텍처 변종이다. 이에 비해 Hailo-8은 전통적 CPU 및 GPU 빌딩 블록에 의존하지 않는 독창적인 접근방식을 사용한 새로운 아키텍처 도메인 특화(domain-specific) 프로세서이다. 

Hailo-8은 ‘구조 정의 데이터 흐름’(Structure-Defined Dataflow) 아키텍처를 특징으로 한다. 메모리, 소프트웨어 제어, 액티브 쿨링이 필요 없는 열방출 설계를 통합했다. 

Hailo-8는 컴퓨팅, 메모리, 제어 블록을 포함한 자원들이 칩 전체에 분산돼 있다. 또 구글 텐서플로우(TensorFlow) 머신러닝 프레임워크와 ONNX(Open Neural Network Exchange) 지원 헤일로 소프트웨어(SDK)가 각 AI 알고리즘 요구사항을 분석하고 적절 모듈을 할당한다. 헤일로 공식 발표 자료에 따르면 Hailo-8는 26 TOPs의 성능과 와트 당 2.8 TOPs의 전력 효율을 제공한다. 

회원가입 후 이용바랍니다.
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
저작권자 © 테크월드뉴스 무단전재 및 재배포 금지