[테크월드=배유미 기자] AI 컴퓨팅 기술 제공업체 엔비디아가 지난 달 출시한 A100 텐서(Tensor) 코어 GPU가 구글 컴퓨트 엔진(Google compute Engine)에 탑재됐다고 밝혔다.

구글 클라우드에 탑재된 엔비디아 A100 텐서 코어 GPU (자료제공=엔비디아)

구글은 최근 A100이 탑재된 엑셀레이터-옵티마이즈드 VM(Accelerator-Optimized VM)(A2) 인스턴스를 새롭게 공개했다. 이로써 새로운 엔비디아 GPU를 제공하는 최초의 클라우드 서비스 제공업체가 됐다. 또한, 이는 엔비디아 GPU 중 가장 빠르게 클라우드에 채택된 사례다.

A100은 엔비디아 암페어(NVDIA Ampere) 아키텍처를 기반으로 구축됐다. A100은 이전 세대보다 훈련·컴퓨팅 성능을 20배 향상시켰으며, 이는 인공지능의 원동력인 워크로드 속도를 획기적으로 개선시킨다.

클라우드 데이터센터에서 A100은 AI 교육과 추론, 데이터 분석, 과학 컴퓨팅, 유전학, 엣지 비디오 분석, 5G 서비스 등을 포함한 광범위한 컴퓨팅 집약적 애플리케이션을 구동한다.

빠르게 성장하고 있는 핵심 산업 기업들은 구글 컴퓨트 엔진에 탑재된 A100의 획기적인 성능으로 혁신을 가속화할 수 있다. AI 확장과 과학 컴퓨팅에서 추론 애플리케이션 확장, 실시간 대화형 AI 실행에 이르기까지, A100은 클라우드에서 실행되는 복잡하고 예측 불가능한 모든 워크로드를 가속화한다.

엔비디아는 곧 쿠다(CUDA) 11을 배포할 예정이다. 이를 통해 개발자들은 텐서 코어, 혼합정밀 모드, 멀티 인스턴스 GPU, 고급 메모리 관리, 표준 C++/포트란(Fortran) 병렬언어 구조를 포함한 엔비디아 A100 GPU의 새로운 성능을 활용할 수 있을 예정이다.

마니쉬 사이나니(Manish Sainani) 구글 클라우드(Google Cloud) 제품관리 담당 디렉터는 “구글 클라우드 고객은 AI와 과학 컴퓨팅 워크로드에 대한 혁신을 이끌어줄 하드웨어와 소프트웨어 서비스를 원하고 있다”며, “우리는 앞으로 고객들이 새로운 성능을 어떻게 활용할 지 기대하고 있다”고 소감을 밝혔다.

한편, 구글 컴퓨트 엔진은 워크로드가 적은 사용자를 위해 특정 애플리케이션 요구사항에 맞는 적은 구성의 A2 VM을 제공한다. 구글 클라우드는 구글 쿠버네티스 엔진(Google Kubernetes Engine), 클라우드 AI 플랫폼과 기타 구글 클라우드 서비스에 곧 엔비디아 A100를 추가 지원한다. 또한, 대규모의 까다로운 워크로드를 위해 고객들에게 16개의 A100 GPU와 함께 a2-메가GPU-16g(a2-megagpu-16g) 인스턴스를 통해 총 GPU 메모리 640GB와 시스템 메모리 1.3TB를 제공한다. 이는 모두 최대 1초당 9.6TB의 대역폭을 갖춘 NV스위치(NVSwitch)로 연결된다.

회원가입 후 이용바랍니다.
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
저작권자 © 테크월드뉴스 무단전재 및 재배포 금지
이 기사와 관련된 기사