[테크월드=이건한 기자] 인공지능(AI)의 편향성이란 AI가 특정 사안을 판단함에 있어 일부 기준에 치우쳐 공정하지 못한 판단을 내리는 경향을 뜻한다.

주로 개발처에서 머신러닝 용도로 제공한 데이터에 눈에 보이지 않는 편향성이 내재돼 있고, 이를 학습한 AI의 추론과 판단 과정에서 이점이 크게 부각되는 문제가 발생하는 것이 일반적이다. 

인종 편향적 데이터를 학습한 마이크로소프트의 트위터 챗봇 테이(Tay)가 인종·성차별적 발언을 지속하다 서비스 16시간만에 폐쇄된 사례가 대표적이다. 공정성이 중요한 기업 인사 과정에서 아마존이 도입한 AI 채용 시스템은 남자에게 일방적으로 더 높은 점수를 주기도 했다. 뿐만 아니라 구글의 이미지 기반 자동 태깅 AI는 흑인 여성을 고릴라로 분류하며 사회적으로 큰 파장을 부르기도 했다.

MS 테이 트위터 계정, 현재 폐쇄돼 있다

이에 해외를 중심으로 AI의 편향성 문제가 발생하는 이유와 과정 시각화, 데이터 사전 검수 등을 목표로 한 여러 연구가 진행되고 있다. IBM도 AI 편향성을 시각화하는 '오픈스케일'이란 솔루션을 선보였던 바 있다. 

그리고 국내에서도 본격적인 연구가 시작되는 추세다. AI 기업 코난테크놀로지는 카이스트, 연세대, 아크릴(Acryl), 해외의 페이스북, 마이크로스프트, 국제연합 대학과 손잡고 AI 편향성 이슈 전반에 걸친 연구에 착수한다고 밝혔다.

이번 연구는 공정성의 개념 융합 연구를 우선 수행하고, 산업 적용 결과에 대해 정성적 평가를 수행할 예정이다. 그 후 편향성을 검출하고 분석해 시각화한다.

데이터 편향성 완화·제거 알고리즘 연구에서는 불균형 데이터 분포로 발생하는 편향성을 완화하거나 제거하는 기술을 개발하고, 편향성 특징 생성과 딥러닝을 이용한 편향성 완화, 제거 기술을 개발하게 된다.

이 과정에서 연구팀은 벌점 함수 적용 방법과, 학습 과정에서 발생하는 편향성 발생 요인 검출 도구를 개발한다. 또 복합적인 편향성에 대응하는 생성적 적대 신경망과 앙상블 학습기법을 개발·적용해 성능평가와 검증까지 마칠 예정이다. 

코난테크놀로지의 안춘근 이사는 “인공지능의 편향성 연구로, 인공지능 모델 데이터의 편향성을 자동으로 탐지하고, 편향성 완화·제거를 통한 학습이 가능할 것”이라며 “이를 통해 공정하고 안전한 의사결정이 가능한 인공지능 개발이 가능할 것으로 기대한다”고 밝혔다. 

 

회원가입 후 이용바랍니다.
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
저작권자 © 테크월드뉴스 무단전재 및 재배포 금지
이 기사와 관련된 기사