엔비디아, AI 플랫폼 최적화로 '버트(BERT)' 언어모델 처리 효율 극대화
상태바
엔비디아, AI 플랫폼 최적화로 '버트(BERT)' 언어모델 처리 효율 극대화
  • 이건한 기자
  • 승인 2019.08.14 10:52
  • 댓글 0
이 기사를 공유합니다

BERT-라지의 훈련시간 기존 며칠에서 53분으로 단축, 인퍼런스 2.2ms 기록

[테크월드=이건한 기자] 엔비디아가 자사 AI 플랫폼의 언어 인식·훈련 성능 최적화를 통해 실시간 대화형 AI 언어모델인 버트(BERT)의 활용성을 크게 개선했다고 밝혔다. 버트는 일부 성능 평가에서 인간보다 뛰어난 음성인식 처리 성능을 보여준 딥러닝 기반 AI 언어 모델로, 구글이 작년 11월에 발표한 최신 기술이다. 

엔비디아의 실시간 대화형 AI 데모 (자료=엔비디아)
엔비디아의 실시간 대화형 AI 데모 (자료=엔비디아)

엔비디아는 이번 플랫폼 최적화로 버트(BERT)를 1시간 이내에 훈련 시키고, 2ms 만에 AI 인퍼런스(Inference, 인식·추론)를 완료할 수 있다고 설명했다. 기존에 며칠 이상 걸리던 것과 비교하면 비약적인 성능 향상이다. 

대화형 AI 기반의 챗봇, 지능형 개인 비서, 검색엔진 서비스 등이 인간 수준의 이해력을 갖추고 작동하려면 방대한 언어 데이터를 학습하고 이를 이해한 뒤 가장 적절한 추론을 거쳐 정확한 답을 내놓을 수 있어야 한다.

이번 엔비디아의 최신 AI 플랫폼은 언어 학습과 처리에 필요한 시간을 단축하고 반응 속도를 개선해 대규모 사용자를 대상으로 한 기업의 AI 서비스 품질 개선을 돕는다. 현재 검색엔진 빙(Bing)을 운영하는 마이크로소프트의 경우, 검색엔진에 자사의 애저 AI 플랫폼과 엔비디아의 기술을 적용해 검색 품질을 개선하고 있다.

마이크로소프트 빙 그룹 프로그램 매니저인 랑간 마줌더(Rangan Majumder)는 "엔비디아의 GPU를 활용해 BERT를 최적화했고, 지난해 빙의 순위 검색 품질을 크게 향상했다”며 “또 애저 내 엔비디아 GPU를 사용해 CPU 기반 플랫폼 대비 레이턴시(latency)를 두 배 단축하고 처리량을 다섯 배 향상했다"고 말했다.

클린크(Clinc), 패세지 AI(Passage AI), 레코저(Recordsure)를 포함한 엔비디아의 인셉션(Inception) 프로그램에 참여하는 여러 스타트업도 엔비디아의 AI 플랫폼을 사용해 은행, 자동차 제조업체, 소매업체, 의료 사업자, 여행, 서비스업체 등을 위한 첨단 대화형 AI 서비스를 구축하고 있다. 이번 성능 개선으로 이들 기업 모두 일정 이상의 서비스 품질 개선 효과를 누릴 수 있을 것으로 기대된다. 

한편 엔비디아는 이번 AI 플랫폼 최적화를 통한 구체적인 성능 개선 수준을 다음과 같이 밝혔다.

▲가장 빠른 훈련: 1472개의 엔비디아 V100 GPU를 사용한 엔비디아 DGX 슈퍼POD을 통해 며칠이 소요되던 BERT-라지(BERT-Large) 훈련에 필요한 시간을 53분으로 단축했다.

▲가장 빠른 인퍼런스: 엔비디아 텐서RT를 사용하는 엔비디아 T4 GPU를 통해 BERT-베이스 스쿼드(BERT-Base SQuAD) 데이터세트를 2.2ms만에 인퍼런스했다.

▲가장 방대한 모델: BERT에 사용되는 기술 빌딩 블록(building block)과 점점 더 늘어나는 다른 자연어 AI 모델을 기반으로 세계 최대의 언어모델을 구축하고 훈련한다. 엔비디아의 맟춤형 모델은 83억 개의 매개변수를 가졌으며, BERT-라지 크기의 24배다.


관련기사