산업별 이미지 센서 개발 현황을 살피다
상태바
산업별 이미지 센서 개발 현황을 살피다
  • 선연수 기자
  • 승인 2020.02.06 10:00
  • 댓글 0
이 기사를 공유합니다

‘사용은 필수, 개선할 것도 많아’ 연구 활성화 기대

[테크월드=선연수 기자] 지난 1월 31일 여의도 전경련회관에서 테크포럼 주최하에 이미지 센서 기술 현황을 한 번에 파악할 수 있는 ‘차세대 이미지센서, 카메라모듈 핵심기술 및 최신동향 세미나’가 열렸다. 삼성전자, 애플 등 숱하게 일어나는 스마트폰 업체 간의 이미지 센서 경쟁, 그리고 차세대 자율주행에 있어서의 적용 방향까지 전망할 수 있는 자리였다.

 

지난 1월 31일 테크포럼이 '차세대 이미지센서, 카메라모듈 핵심기술 및 최신동향 세미나'를 개최했다.

 

“이미지 센서는 화소 집적 기술 경쟁”

세종대학교 전자정보통신공학과 박상식 교수

세종대학교 전자정보통신공학과 박상식 교수는 현재 스마트폰에 가장 많이 적용되고 있는 CMOS 이미지 센서의 진화와 차세대 기술에 대해 발표했다.

박상식 교수는 “국내에서 이미지 센서를 직접 생산하는 업체는 삼성전자, SK하이닉스, 동부하이텍 3곳 정도다. 생산 라인 없이 설계 후 파운드리로 제작하는 업체도 소수 있다”고 업계 현황을 이야기했다.

CCD가 아닌 CMOS 칩이 스마트폰에 들어가는 이유는 전력 소모가 적고 크기가 작기 때문이다. 박 교수는 현재 이미지 센서 시장은 더 작은 칩에 더 많은 작은 화소를 집적하는 경쟁이라고 말했다.

CMOS 이미지 센서는 각 화소에 빛이 들어오면 빛의 양에 비례한 전자가 발생한다. 전자는 화소 내에서 전압으로 변환되며, 스위칭을 통해 스캔된다. 이를 통해 이미지에 대한 아날로그 신호가 생성되고 변환 컨버터를 통해 디지털 신호로 바뀐 뒤 ISP(Image Signal Processor) 등을 통해 보정된다.

기본적인 CMOS 모델에 트랜지스터를 추가해 4개의 트랜지스터를 사용하면, CMOS도 CCD처럼 노이즈를 제거할 수 있게 된다. 트랜지스터를 공유하고, 이중렌즈를 사용하는 등 잡음비를 높이기 위한 다양한 기술이 있다. 박 교수는 “점점 작아지는 칩과 화소로 인해 화소 간격이 좁아지게 된다. 이렇게 되면 예를 들어, 녹색 셀에 들어갈 전자가 적색 셀에 들어가 다른 색으로 표현될 수 있는 것이다. 삼성전자의 아이소셀(ISOCELL) 기술은 화소 간에 절연층을 만들어 전자가 이동하는 것을 방지해 색이 더 선명하고 정확하게 나타난다. 이는 현재 나온 기술 중 가장 앞선 화소 기술”이라고 설명했다.

박 교수는 “현재는 8~12인치의 실리콘 웨이퍼로 센서를 제작하지만, 향후 사람의 눈과 같은 유기물질로 수광부를 제작할 수 있을 것이다. 그러나 아직은 신뢰성과 잡음비에 대한 성능 개선이 필요”하다고 말했다.

 

“캘리브레이션이 이미지 센서의 정밀도를 결정”

루리텍 김혜광 공학박사 겸 연구소장

루리텍 김혜광 공학박사 겸 연구소장은 ToF 센서 기술의 작동 구조에 대해 설명했다.

ToF 카메라는 주로 안면 인식, 제스처 인식과 같은 근거리 인식에 많이 사용된다. 김혜광 박사는 “요즘 자동차에 ToF 센서를 적용하려는 시도가 많이 이뤄지고 있다. 자동차 클러스터에 입체 3D 디스플레이를 장착하고 안경 없이도 입체 영상을 볼 수 있도록 만드는 것이다. 이에 ToF 센서가 운전자의 눈 위치를 정확하게 감지해 3D 디스플레이가 운전자의 시각에서 보이게 만든 기술도 있다”고 소개했다. 이외에도 인테리어와 같은 가상으로 물체를 배치해보는 기능으로 활용되기도 한다.

ToF는 거리를 측정하기 위해 포토다이오드 2개가 하나의 픽셀로 구성된다. 하나는 광원의 on/off 주파수에 맞춰 동작하며, 다른 하나는 빅셀(VCSEL)이 꺼졌을 때(Off) 동작하는 것이다. 광원이 대상체에 부딪혔다 돌아오는 위상차를 픽셀에 모인 전하의 양으로 알아낸 후 거리를 구하는 방식이다.

김혜광 박사는 ToF 카메라에서 중요한 것은 캘리브레이션(Calibration)이라고 설명했다. “캘리브레이션의 이론값과 실제값의 차이를 줄이는 기술은 ToF 센서 업체들이 관련 라이브러리를 제공하지만, 정밀도를 결정하는 핵심기술이기에 구체적으로 공개하지는 않는 상황”이라고 설명했다.

 

“딥러닝 기술을 활용한 화이트밸런스 보정이 중요”

충북대학교 전자정보대학 전자공학부 황영배 교수

충북대학교 전자정보대학 전자공학부 황영배 교수는 지능형 카메라의 핵심 기술과 개발 현황에 대해 소개했다.

황 교수는 지능형 카메라의 기능을 크게 2가지로 분류했다. 첫 번째는 영상처리·개선이고, 두 번째는 이미지에 기반한 인지 기술이다. 영상처리는 심도를 구하고, HDR(High Dynamic Range)을 구현하며, 사람이 보기 좋도록 영상을 개선하는 것이 주를 이룬다. 인지 기술은 자율주행이나 로봇과 같은 기기 서비스에 적용되는 행동 인식 분야가 최근 활발하게 연구되고 있다.

구글의 카메라는 ‘Phase-Detect Auto-Focus(PDAF)’란 기술을 채택하고 있다. 이는 듀얼 픽셀로, 하나는 먼 거리의 정보를 받고, 다른 하나는 가까운 곳의 정보를 받아 초점을 빠르게 조정하는 방식이다. 각각의 픽셀 정보로 심도를 구하며, 인물 사진의 아웃포커싱 기능을 지원한다. 사람을 구별할 때는 딥러닝을 통해 사람의 포즈, 형태를 인식하고 구분해낸다.

딥러닝 기법을 활용하는 관점에서 좋은 화질을 구현하기 위해서는 화이트밸런스가 중요하다. 어떤 사진이 흰 벽지 환경에서 노란색 조명을 받은 것인지, 노란색 벽지 환경에서 흰색 조명을 받은 것인지 딥러닝을 통해 구분해내야 한다. 만약 사진 속에 바나나가 있다면, 일반적으로 노란색인 바나나가 흰빛을 띠는지 원래의 노란 빛깔을 띠는지를 통해 조명 값을 알아낼 수 있다. 이런 방식으로 딥러닝은 대상에 대한 학습 데이터로 상황을 예측하고 이미지, 영상을 보정한다.

이외에도 리얼 노이즈 제거, 영상 합성 시의 얼라인 성능 고도화 등 다양한 기술 개발이 이어지고 있다. 황 교수는 “그러나 아직 사용자가 원하는 ‘좋은 사진’에 대한 확실한 기준은 없다. 이 기준을 고도화하기 위한 다양한 기준들 또한 연구되고 있다”고 설명했다.

 

“3D 센서의 해결 과제, 광원 간섭 현상”

나무가 강영규 연구소 상무

나무가 강영규 연구소 상무는 ToF 센서를 비롯한 3D 이미지 센서 기술을 소개했다.

ToF 카메라는 센서가 얻어낸 위상차로 수학적인 식을 통해 거리 값, 심도를 알아낸다. 이는 iToF(indirect ToF)와 dToF(direct ToF) 두 가지 방식으로 나눠지며, 시중에 사용되는 ToF 센서의 대부분은 iToF 센서다.

ToF는 빛을 고속으로 on/off 스위칭하는데, iToF는 이 스위칭 속도가 20~100MHz로 비교적 근거리인 30cm~10m 거리를 인지한다. dToF의 스위칭 속도는 200~300MHz로 훨씬 속도가 빠르며, 환산 시 나노초 수준의 속도를 보인다. 펄스 역시 iToF는 연속적인 펄스, dToF는 단펄스를 주고받는다.

IR 파워의 경우, dToF는 피크 값이 높은 값을 사용한다. iToF는 비교적 값이 낮아 태양광과 같은 야외 환경에서 노이즈가 높아 사용이 어려운 점이 있다. dToF는 비교적 짧은 시간 내에 피크값을 쏘는 방식으로, 야외에서의 간섭이 비교적 해소된다.

강 상무는 “그러나 dToF 기술을 기존의 센서 제작 방식으로 구현할 경우, 제작이 어렵고 단가가 높아 양산과 상품화 과정에 어려움이 있다. 최근 애플이 출시한 아이패드 후면 카메라에 dToF 기술이 적용될 것으로 알고 있다”고 설명했다.

iToF뿐만 아니라 3D 센서 모두 외부 광원으로 인한 간섭 문제는 공통적인 해결 과제다. 현재 각 기술에 최적화된 설계로 간섭을 최소화하기 위한 연구가 많이 진행되고 있다.

강 상무는 “3D 카메라 성능을 결정하는 중요한 요소 중 하나는 액티브 얼라인먼트”라고 강조했다. 카메라의 화소수가 늘어남에 따라, 액티브 얼라인먼트 성능이 대두되고 있다. 이는 센서의 중심과 렌즈의 광축을 정확히 정렬시키는 것으로 카메라 사이즈를 줄이거나, 심도의 정확성을 높이는 등을 목적으로 중요성이 높아지고 있다. 이는 3D 카메라의 캘리브레이션 정확도를 높일 수 있는 가장 좋은 방법이라고 강 상무는 설명했다.

 

“오토모티브 카메라, 안전이 1순위”

엠씨넥스 ADAS 랩 정영현 개발 실장

엠씨넥스 ADAS 랩 정영현 개발 실장은 자율주행과 카메라 모듈 시장에 대해 발표했다.

지금의 CMOS 이미지 센서 기술은 근적외선 수준의 파장대만 커버할 수 있다. 중적외선을 넘어 원적외선까지 고려할 경우, 별도의 반도체 화합물을 사용하는 공정이 필요하다. 정 실장은 “아직은 자동차에 열화상 카메라, 원적외선 카메라가 적용되기는 어렵다. 파장이 차량용 유리를 투과하기 어려워 레이다 센서를 차량 밖에 장착하듯이 외부에 탑재해야 한다. 품질이나 신뢰성에 대한 검증이 확보되지 않은 상황”이라고 설명했다.

해외에서는 자동차에 적용되는 카메라 중 특히 측방 카메라에 대해 연구가 많이 진행되고 있다. 현재는 단순히 위치를 측정하기 위해 측방에 장착하고 있지만, 루프 위치에서 전방을 바라보는 방식도 연구가 진행되고 있다.

인캐빈(In cabin) 카메라는 운전자뿐만 아니라, 탑승객 모두를 모니터링하는 방식으로 진행되고 있으며, 현재 독일에서는 레이더로 감시하는 기술을 적용한 차량이 공개됐다.

정 실장은 “2021년부터는 레벨3 자율주행이 본격적으로 시작될 것”으로 기대했다. 카메라 위치별로 2017년과 2018년은 프론트 카메라 시장이 성장했으며, 현재도 계속되고 있다. 정 실장은 “앞으로는 후방, 측방의 위치에서 주차 안내나 보행자 보호 등 안전 강화하는 방향으로 발전해나갈 것으로 보인다. 단순히 알림을 주는 것이 아니라 직접적으로 제동되는 방식까지 나올 것”이라고 전망했다.

 

“적외선 광학 기술, 군에서 민으로 영역 확대”

한국광기술원 최주현 광ICT융합연구본부장

한국광기술원 최주현 광ICT융합연구본부장은 4차 산업혁명에 있어 광학계의 역할과 적외선 렌즈 개발 과제에 대해 소개했다.

최 본부장은 “인공지능, 빅데이터, 클라우드와 같은 4차 산업혁명 기술을 받아들이기 위해서는 센싱이 기초가 된다. 이중에서도 이미지센서가 70% 이상을 차지할 것”으로 예상했다. 이어 “작년 한일 수출규제 품목에 광학 렌즈와 광학 유리 소재가 포함돼, 올해 관련 예산이 600억 원 정도 책정됐다”며 정부의 장기적인 소재·부품·장비 기술 투자로 인한 기대를 표했다.

본 기술원은 적외선 분야와 관련된 굴절률이 높은 고굴절 렌즈 R&D를 올해부터 주 과제로 진행하며, 이외에는 웨이퍼 렌즈 소재와 특수 카메라 등에 대해 연구하고 있다.

적외선 투과용 렌즈로 게르마늄을 활용하면 파장 투과율은 좋으나 소재, 기술, 비용적으로 제작이 어렵다. 특히 3~5㎛의 중적외선, 8~12㎛의 원적외선 렌즈는 하나씩 제작해 단가가 더 높아진다. 군용으로 제작되는 100mm 게르마늄 비구면 렌즈 하나의 가격은 수백만 원을 호가한다. 군용 비행기의 후방에 탑재된 미사일 추적기나 앞단의 돔에 장착되는 열상 마케라 추적기에 렌즈가 사용된다. 최근 코로나 바이러스로 공항에서 많이 활용되는 적외선 열화상 카메라에도 들어가며, 카메라 한 대의 가격은 3000만 원 정도다.

최 본부장은 “기술원은 이런 고가의 까다로운 기술을 일반에서도 활용할 수 있도록 연구하고 있다. 유리 몰딩 기술을 적용해 원적외선 렌즈 비용을 10만 원대로 낮출 수 있으며, 개발 과정에서 발생하는 한계점들을 해결해나가는 중이다. 이외에도 다양한 제작 방식과 소재 변화를 시도하고 있다”고 밝혔다.


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.