AI와 차세대 메모리, 데이터 센터에서 엣지로

[테크월드=박지성 기자] (편집자주: 한장TECH는 테크월드 기자들이 주요 뉴스를 한 장의 슬라이드로 제작하여 제공하는 테크월드만의 차별화된 독자 콘텐츠입니다.)

 

‘공부에는 왕도(王道)가 없다.’라는 오랜 격언이 있다.

 

공부를 위한 최고의 방법은 어떤 요령이 아니라 많은 학습량이라는 이 격언은 비단 사람뿐만 아니라 기계에도 적용된다.

보다 정확도 높은 인공지능을 구현하기 위해서는 다수의 데이터가 절대적으로 필요하기 때문이다. 인공지능을 ‘먹여 살릴’ 데이터에 대한 요구가 폭증하면서, 메모리 반도체에도 변화가 예견되고 있다.

 

ㅇ 인공지능을 만나 성장하는 메모리 반도체, 그러나 상대적으로 낮은 성장률

딥러닝을 활용한 AI의 학습 및 추론을 위해 컴퓨터는 입력된 데이터를 수천 개의 코어에 최대한 신속하게 전달해야 한다.

그리고 이 입력된 데이터를 저장하고, 모델 파라미터를 구동하면서 동시에 학습과 추론을 진행하기 위해서는 DRAM과 같은 메모리 반도체가 필수적이다.

예컨대, 고양이 이미지를 인식 시키는 학습의 경우, 컴퓨터는 수만 개 아니 그 이상의 고양이 이미지 (색상, 윤곽, 질감 등을 포함하여)를 저장하는 동시에 인식 프로세스는 모델 알고리즘을 미세 조정하고 판단할 수 있어야 한다.

이는 곧 이런 기능을 수행할 수 있는 메모리 반도체의 성장을 의미한다.

 

▲ 메모리 역시 AI로 인해 지속 성장하지만, 차세대 제품의 필요성이 대두되고 있다.

 

실제로 이런 요인으로 인해, 맥킨지는 DRAM 등의 AI 관련 휘발성 메모리 반도체 시장은, 연평균 5~10%의 성장을 거듭하며, 2017년 7조 5천억원에서 2025년 14조 2천억원으로 성장할 것으로 내다봤다.

두 배에 가까운 성장이지만, 이는 동 기간 10~15% 성장하는 로직 반도체, 25~30% 성장하는 플래쉬 메모리 반도체 시장에 비해서는 상대적인 저성장인데, 이는 지속적으로 증가하는 알고리즘의 효율성 증대와 같은 소프트웨어(SW)적 진화로 인해 메모리 반도체 수요가 일부 감소하기 때문인 것으로 관측됐다.

 

ㅇ 데이터 센터가 아니라 엣지로 나아가는 AI 시장 공략

 

 

시장의 외형과 함께 주요 시장 역시 이동할 것으로 예측됐다.

현재의 메모리 반도체는 주로 CPU 최적화에 초점이 맞추어져 있었다. 더불어 단기적 성장 기회 역시 데이터 센터에 집중돼 있었다. 그러나 AI의 신뢰성이 높아지고 그 사용처가 확대되면서, 다양한 아키텍쳐들과의 접목이 증대되고 있으며, 그 수요 역시 디바이스와 엣지로 이동할 것으로 보인다.

 

관련해서 2019년 1월, 세미콘코리아 2019에서 기조연설을 맡은 심은수 삼성전자 AI&SW 리서치 센터장은 "온 디바이스 AI 시대의 개막을 위해서는 메모리 반도체의 진화가 필수적"이라고 지적한 바 있다.

 

현재의 AI의 실체는 기기 단위가 아니라 데이터 센터에서 이뤄지는데, 정말 스마트한 AI가 되기 위해서는 스마트 스피커와 같은 단말들이 단순히 정보를 수집, 데이터 센터에 송수신하고 그 결과값을 재생하는 수준에서 벗어나 자체적인 AI 엣지가 돼야 한다는 것이다.

그리고 이런 ‘온 디바이스 AI’ 시대를 앞 당기기 위해서는, 디바이스 자체에 보다 빠른 광대역 정보처리가 가능한 메모리 반도체 탑재 등이 선결 과제로 꼽히고 있다.  

 

ㅇ 쌓아 올리고(HBM), 합치면서 (On-Chip Memory) 혁신한다.   

 

이런 변화의 흐름 속에서 메모리 반도체 시장에서는 HBM (광대역폭 메모리High Bandwidth Memory)와 온 칩 메모리(On-chip Memory)에 대한 관심이 높아지고 있다.

HBM은 메모리 반도체의 적층 설계를 바탕으로 기존의 메모리 대역폭을 몇 배 이상 끌어올려, 데이터 처리 능력은 획기적으로 높이고 전력 사용량은 최소화하는 방식이다.

이미 삼성전자와 같은 메모리 반도체 기업들은 HBM의 가능성에 주목하고 있으며, 이미 2018년 자일링스와 HBM2 공급을 체결한 바 있다. 뿐만 아니라 솔리드 스테이트 기술협회인 JEDEC은 HBM3의 표준을 개발하고 있으며 2020년에는 표준 규격이 완성될 것으로 예상되고 있다.

그러나 이런 장점에도 불구하고, 극복해야 할 한계는 여전히 남아 있다. 바로 가격이다.

HBM을 적층 제작하기 위해서는 중간 기판인 인터포저(Interposer)를 활용해야 하는데, 바로 이 과정에서 패키징 추가 비용과 제조 공정의 복잡도가 높아진다는 문제점이 있다.

 

또 다른 대안으로는 메모리와 프로세서를 통합 시키는 방식인 온 칩 메모리(On-chip Memory)가 대두되고 있다.

딥러닝 프로세서와 메모리가 통합된 온 칩 메모리는 외부의 DRAM이나 메모리 반도체를 활용하는 것보다 100배 빠른 연산이 가능하다.

가장 대표적인 예로는 구글의 AI 전용 TPU(Tensor-Processing Unit)가 있다. 구글은 AI 전용 칩을 개발하면서 칩 내에 모든 모델링들을 저장하기에 충분한 저장공간을 함께 확보했다.

온 칩 메모리 분야의 또 다른 강자인 스타트업 그래프코어(Graphcore)는 AI 처리속도를 최대화하면서도 저장 공간은 일반 대비 1000배 높은 아키텍쳐를 시장에 소개하기도 했다. 그러나 온칩 메모리 역시, 현재의 높은 개발비용에 따른 제품 단가가 시장 보급의 한계로 꼽히고 있어 이에 대한 개선은 필요한 상황이다.

데이터 센터에만 존재하는 AI가 아니라, 자율주행차 그리고 각 개별 디바이스를 통해 AI가 세상에 직접적 접점을 만들기 위해서는, 이와 같이 엣지 단에서 광대역 정보 처리 및 데이터 처리 속도 증대를 위한 메모리 반도체의 혁신이 요구되고 있는 것이다.

 

AI가 몰고 올 반도체 산업의 변화'는 다음주 5편으로 이어집니다.

- 이 글은 테크월드가 발행하는 월간 <전자부품(EPNC> 2019년 12월호에 게재될 예정입니다.

 

회원가입 후 이용바랍니다.
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
저작권자 © 테크월드뉴스 무단전재 및 재배포 금지
이 기사와 관련된 기사