[테크월드=선연수 기자] 

 

 

제조·산업 공정 분야는 엄청난 변화를 겪는 중이다. 산업용 IoT(IIoT, Industrial Internet of Things)와 같은 이니셔티브들은 상당히 높은 운영 효율 향상을 보장한다. 따라서 현실적인 생산 처리, 산업 자동화, 품질 관리 환경에서 어떤 상황이 발생할지에 대한 감각과 통찰력을 제공할 수 있는 IIoT 애플리케이션 센서들이 전례없는 수준으로 빠르게 도입되고 있다. 환경 센서, 유체 흐름 센서, 압력 센서가 제공할 수 있는 여러 메트릭(Metric)이 있으나, IIoT가 시스템 프로세스로서 전적으로 관리해야할 부분은 인간의 가장 중요한 감각 중 하나인 시력이다. 일반적으로 컴퓨터나 머신 비전으로 불리는 ‘Provisioning computer sight’는 인공 신경망(ANN, Artificial Neural Network) 플랫폼과 결합된 고속 이미지·영상 처리 기술에 의존한다.

 

만능 기술, 머신 비전

제조나 어셈블리(Assembly) 공정에서의 시각 기능의 효율성을 따져볼 때, 머신 비전을 적용할 수 있는 분야의 잠재성은 무한에 가깝다. 결과적으로 머신 비전은 산업 환경 전반에 결쳐 도입될 수 있어, 광범위한 요구사항을 충족시키고 있다. 예를 들어, 머신 비전은 샤워젤 용기 내부가 가득 차있는지, 제품에 라벨이 정확하게 부착됐는지를 감지할 수 있다. 또한, 병의 갈라짐, 부서짐, 변형을 감지해 액추에이터(Actuator)가 병을 리젝트 빈(Reject bin)으로 넣도록 할 수 있다.

또 다른 예로 더 복잡하고 자동화된 산업용 로봇의 기계 부품 어셈블리를 들 수 있다. 머신 비전 작업은 어셈블리를 위해 부품들이 정확히 정렬(Aligned)됐는지, 그 다음 단계로 넘어가기 전에 부품이 안전하게 연결됐는지를 확인할 수도 있다.

 

머신 비전 구현 설계 시 고려사항

머신 비전 애플리케이션을 구현할 때, 고려해야 할 몇 가지 사항이 있다. 먼저, 개발팀은 간단한 이미지 처리 기술로 시스템 요구사항을 해결할 수 있는지, 아니면 딥 뉴럴 네트워크(Deep-learning neural network) 기술을 필요로하는 복잡한 작업인지를 결정해야 한다.

간단한 이미지 처리 기술은 카메라로부터 포착된 이미지에서 에지-탐지(Edge-Detection) 알고리즘, 쓰레스홀딩(Thresholding) 기술, 저대역 또는 고대역 통과 필터 기술 등을 사용한다. 이 접근 방식은 낮은 수준의 컴퓨팅 리소스들만을 요구해 제품의 성능에 큰 영향을 주지 않는다. 이 기술들은 여러 제조·자동화 시나리오에서 유용하게 사용될 수 있다. 예를 들어, 산업용 로봇이 병에 뚜껑이 부착됐는지를 확인하는 과제를 생각해보자. 머신 비전은 뚜껑이 없는 경우, 필터(High-pass filter)가 있는 에지-탐지 알고리즘을 통해 어두운 픽셀을 나타냄으로써 구별해낼 수 있다. 쓰레스홀딩은 배경으로부터 색상을 구분해 냄으로써 블리스터(Blister) 포장된 알약을 식별, 계산할 수 있다. 또한, 이와 비슷한 방법을 통해 각 약들의 제조 크기 정확도를 측정할 수 있다.

제품의 부품 번호를 읽는 것처럼 머신비전 과제가 더욱 복잡해지면, 개발자들은 ANN이 문자와 숫자를 추론하도록 만들 수 있다. 또한, 설계적으로 더 복잡해짐에 따라 뉴럴 네트워크 모델을 빠르고, 안정적이며, 정확하게 문자와 숫자를 식별할 수 있도록 학습시켜야 한다.

아마도 가장 중요한 고려사항은 이미지 처리 속도와 컴퓨팅 작업 레이턴시(Compute-task latency)이며, 이는 생산-라인 처리 속도에 영향을 준다. 설계와 실현의 유연성을 보장하기 위해, 머신 비전 플랫폼은 다른 이미지·영상 프로토콜과 프레임 속도를 충분히 만족시키면서, 다양한 분야에 적용하기 위해 최적화, 확장할 수 있도록 제작해야 한다.

 

어떤 컴퓨팅 기기를 사용해야 하는가

앞서 설명한 것처럼, 머신 비전 컴퓨팅 워크로드는 상당히 다를 수 있다. 대부분의 고급 마이크로프로세서들은 계산 집약적인 작업에 완벽히 최적화돼있다(그러나, FPGA(Field-programmable Gate Array)는 특히 높은 이미지와 영상 스트림의 빠른 데이터 속도, 결정론적 병렬 처리 기술 실행에 적합하다). 마찬가지로, 이는 콘볼루션 신경망(CNN, Convolutional Neural Network)과 같은 뉴럴 네트워크 알고리즘을 이용하는 것에 이상적이며, 인간의 뇌를 모방해 높은 정확도로 이미지의 결과를 추론한다.

다양한 범주의 산업용 활용 사례들에 머신 비전 시스템을 구현(이미지 처리나 뉴럴 네트워크 기술 사용)하는 연구팀은 그들의 설계에 기반한 유연한 프로토 타입 플랫폼의 가용성을 핵심으로 둔다.

 

마이크로세미/마이크로칩의 PolarFire FPGA 영상·이미지 키트 소개

 

[그림 1] 마이크로세미/마이크로칩의 PolarFire FPGA 영상·이미지 키트가 보여주는 플러그인 카메라 보드

 

마이크로세미/마이크로칩의 PolarFire FPGA 영상·이미지 키트는 머신 비전 애플리케이션을 검증하고 프로토타입하는 포괄적인 고성능 평가 플랫폼이다. 세부적으로는 ▲듀얼 카메라 센서 ▲넓은 디스플레이 인터페이스 ▲주변 장치 I/O 옵션을 가지고서, 키트는 4K 이미지를 처리할 수 있으며, HDMI 2.0, DSI, MIPI CSI-2 TX, MIPI CSI-2 RX, HD/3G SDI와 같은 프로토콜들을 지원한다. PolarFire FPGA는 300k의 로직 요소를 가지며, 4GB DDR 메모리, 버퍼링을 위한 1GB 플래시 메모리를 탑재하고 있다[그림 1].

이 키트는 레퍼런스 디자인 설계 데모 애플리케이션을 포함하고 있으며, 이는 용량, 영상 스티칭(Stitching), 이미지 패닝(Panning) 등의 활용을 보여준다. 변위 지도(Disparity map)는 이미지 심도 측정을 제공한다. 키트 소프트웨어는 에지-탐지 알고리즘 IP을 포함하며, 이는 물체의 가장자리를 추출해 이미지의 특징을 감지하는 Sobel 필터에 기반한다.

 

결론

머신 비전은 모든 산업 자동화 과정에서 핵심 요소다. 마이크로세미/마이크로칩의 PolarFire FPGA 영상·이미지 키트처럼, 머신 비전 애플리케이션을 위해 설계된 FPGA 기반 개발 플랫폼을 이용하는 것은 개발 속도를 높이고 배포 시간을 줄일 수 있는 방법이다.

<글: 로버트 헌틀리(Robert Huntley)>

<자료 제공: 마우저 일렉트로닉스>

회원가입 후 이용바랍니다.
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
저작권자 © 테크월드뉴스 무단전재 및 재배포 금지
이 기사와 관련된 기사