[테크월드뉴스=이재민 기자] 엔비디아가 2D 이미지를 3D 모델로 변환해 가상 환경에서 시각화 및 제어가 가능한 ‘GANverse3D’ 애플리케이션을 공개했다.

건축가, 크리에이터, 게임 개발자, 디자이너 등이 GANverse3D를 활용하면 3D 모델링 분야에 전문성이 없거나 렌더링에 투자할 대규모 예산이 없어도 자신의 실물 모형(mockups)에 새로운 오브젝트를 손쉽게 추가할 수 있다. 이는 특정 자동차 사진 1장만으로 사실적인 전조등, 후미등, 점멸등까지 완비한 3D 모델을 구축해 가상의 장면에서 주행하게 만들 수 있다.
엔비디아 AI 리서치 랩의 연구자들은 훈련용 데이터세트의 마련에 생성적 적대 신경망(GAN)을 적용해 마치 사진사가 주차된 차량 주변을 걸으며 서로 다른 각도에서 사진을 찍듯, 동일한 오브젝트를 다양한 각도에서 묘사하는 이미지들을 합성했다. 이를 통해 얻은 다시점 이미지들을 2D 이미지에서 3D 메시 모델을 추론하는 프로세스인 역 그래픽(inverse graphics)용 렌더링 프레임워크에 연결했다.
다시점 이미지로 훈련을 완료한 GANverse3D는 단일 2D 이미지만으로 3D 메시 모델을 구현할 수 있다. 이는 오브젝트를 커스터마이징하고 배경을 스왑 아웃(swap out)할 수 있는 3D 뉴럴 렌더러와 함께 사용할 수 있다.
기존의 역 그래픽용 모델들은 훈련 데이터로 3D 형상에 의존해 왔다. 이번 프로젝트의 책임 저자를 맡은 웬젱 첸(Wenzheng Chen) 엔비디아 연구원은 “3D 에셋의 도움을 받는 대신 GAN 모델을 효율적인 데이터 생성기로 전환해 웹상의 모든 2D 이미지로 3D 오브젝트를 만들 수 있게 됐다”고 설명했다.
GANverse3D 연구 내용은 2021년 5월에 개최될 인공지능학회 표현학습국제학회(ICLR)와 6월에 열릴 패턴인식 학술대회(CVPR)에서 소개될 예정이다.
그래도 삭제하시겠습니까?



