병렬처리능력·선점시장 기반 공략, 구글은 TPU 활용한 전력 효율성 제고 눈길

차세대 시장 성장 동력으로 떠오른 인공지능(AI)의 핵심 기술을 확보하기 위한 칩 경쟁에 엔비디아, 인텔, 인터넷 서비스 기업인 구글까지 합세하면서 새로운 대결구도가 형성됐다.

전통적으로 컴퓨팅은 명령어가 입력된 순서대로 데이터를 처리하는 직렬(순차) 처리 방식의 컴퓨터중앙처리장치(CPU)를 기반으로 구현된다. 그래픽연산처리장치(GPU)는 빅데이터, 게임의 3D 그래픽 구현을 위해 등장했으나 최근 여러 명령어를 동시에 처리하는 병렬처리기술이 인공지능의 딥러닝을 구현하는데 사용되고 있다.

GPU 시장 점유율 1위인 엔비디아는 경우 하이엔드 GPU인 ‘테슬라’를 앞세워 일치감치 인공지능 분야를 타겟으로 사업을 확대해 나가고 있다. CPU 시장 점유율 98%로 1위인 인텔의 경우 CPU에 GPU를 도입한 새로운 프로세서 ‘제온 파이’를 가지고 인공지능 시장을 공략해 나간다는 계획이다.

구글 텐서프로세싱유닛(TPU)

'알파고'로 유명한 구글의 경우 영국 기업 '딥마인드'를 인수하고 본격적인 AI 시장에 뛰어들었다. 특히 구글 데이터센터에 자체 개발한 텐서프로세싱유닛(TPU)이 탑재된 것을 공개한 바 있다. 실리콘 기업이 아닌 인터넷 기업이 관련 산업 확장에 적극 나설 것으로 예상되는 부분이다.

 

◇ 엔비디아는 GPU '컴퓨팅파워', 인텔은 기존 시장 인프라 공략

엔비디아가 작년 12월 출시한 ‘테슬라(Tesla) M40’ GPU는 빅데이터 분석을 비롯한 머신러닝, 딥러닝 등 고도의 연산 처리에 최적화 됐다.

‘테슬라 M40’은 3072개의 코어와 5GB의 GDDR5메모리를 탑재하고 있으며 7테라플롭(teraflop)에 달하는 빠른 속도와 소비 전력 250와트의 높은 에너지 효율성을 제공한다. 이 제품은 페이스북이 대규모 인공지능(AI) 컴퓨팅을 위해 설계한 차세대 하드웨어인 코드명 '빅서(Big Sur)’에 적용시킨 것으로 알려졌다.

엔비디아는 딥러닝에 최적화된 GPU 테슬라와 병열 컴퓨팅 솔루션 쿠다(CUDA) 등 하드웨어와 소프트웨어를 모두 갖춘 통합 플랫폼을 강점으로 활용해 자율주행차, 지진분석, 레이싱 트레이닝 등 다양한 산업에서 인공지능 기술을 확대해 나갈 계획이다.

인텔의 경우 기존 인프라 시장에서의 리더십을 이어가겠다는 의지다. 인공지능 분야에서 후발주자에 속하는 인텔은 CPU에 GPU 성능을 도입한 ‘제온 파이 프로세서’를 지난 6월 선보이면서 고성능 컴퓨팅(HPC)의 대중화를 목표로 삼았다.

‘제온 파이 프로세서’는 칩 하나에 64~70개 이상의 코어를 탑재해 병렬처리 성능을 높여 머신러닝과 인공지능 분야의 고도의 연산 작업을 빠르게 분석 처리해주고 128 노드 인프라스트럭처 상에서 단일 노드 대비 최대 50배 빠른 속도로 머신러닝을 작동시킬 수 있다.

특히 회사 측은 제약 없는 확장성과 클라우드, 컴퓨팅 등의 소프트웨어와의 호완성을 최대 장점으로 꼽았다. 제온 파이 프로세서를 기존에 선보인 제온 프로세서 E5와 결합하면 딥러닝 모델 학습 능력을 더울 끌어올릴 수 있고 듀얼 포트의 인텔 옴니 패스 아키텍처와 결합하면 전력소비량, 활용 공간 등을 한층 감소시킬 수 있다는 것이 인텔 측의 설명이다.

인텔은 이런 확장성을 활용해 서버시장의 90%의 시장 점유율과 데이터센터, 클라우드 시장에서 확보한 인프라를 바탕으로 관련 시장 공략에 나설 것으로 보인다. 인텔은 AI 기술이 접목된 슈퍼컴퓨팅을 의료, 금융 등 데이터 분석이 필요한 산업과 자율주행차 등 새로운 산업군으로 확장한다는 전략이다.

 

◇ 구글, AI 활용한 전력 효율성 제고 행보 '눈길'

구글의 경우 빅데이터를 활용해 다양한 서비스 사업을 전개하고 있으며 인공지능 구현을 위해 인텔과 엔비디아의 칩을 적극 활용하는 기업 중 하나다. 최근 행보를 보면 자체 데이터 기반 사업과 데이터센터 내 효율성을 높이기 위해 관련 기술을 사용할 것으로 보인다.

구글은 알파고를 구현하기 위한 클라우드 컴퓨팅 플랫폼(GCP)에는 1202개의 인텔 제온 프로세서와 엔비디아의 GPU를 사용했으며 관리 통제를 위한 자체 칩(TPU)을 추가했음을 지난 5월에 발표했다. 이런 행보는 인터넷 서비스 기업인 구글이 자체 SoC를 개발-보유할만큼 AI 분야에 적극 나서고 있음을 엿볼 수 있는 부분이다.

실제로 구글은 지난 1년간 데이터센터 랙 내에 TPU칩을 활용한 인공지능 알고리즘을 사용함에 따라 온도와 전력 데이터를 실시간으로 반영해 팬, 냉각 시스템, 창문 등 약 100여개 장비와 시설을 통제 및 관리가 가능해졌고 에너지 비용을 15% 절감하게 됐다.

구글 데이터센터에서 사용한 전기량은 지난 2014년 440만2836MWh의 전기를 사용했는데 이는 미국 36만6903가구가 1년간 쓸 수 있는 양이다. 전세계적으로 산재된 자체 데이터센터 내 전력효율성을 높이기 위해 향후 관련된 기술이 사용될 것으로 예측되는 부분이다.

회원가입 후 이용바랍니다.
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
저작권자 © 테크월드뉴스 무단전재 및 재배포 금지