미국 시민단체 LCCR, 소수자 차별 금지 등 제시

[테크월드뉴스=이혜진 기자] 많은 고용주들이 인공지능(AI)에 기반한 새로운 평가 도구를 활용해 구직자를 선발하고 있다. 많은 공급 업체는 이런 도구가 직무 적합성, 성공 가능성과 관련된 특성이나 프로필에 있어 지원자를 객관적으로 평가한다고 주장한다. 

하지만 AI도 인간이 만든 기존의 사회적 편향이 담긴 데이터와 관행을 반영할 따름이다. 그렇기 때문에 AI가 수행하는 채용 평가 기술에 대한 면밀한 조사가 필요하다. 

이에 미국의 대표적인 시민단체인 민권지도자회의(LCCR∙Leadership Conference on Civil Rights)는 지난해 공식 홈페이지에 ‘채용 평가 기술에 대한 시민권 원칙’이라는 제목의 글을 올려 관련 기술의 개발∙사용∙감사∙감독에 대한 몇 가지 원칙을 제시했다. 다음은 해당 글의 요약문이다. 

1. 차별 금지

AI 시스템을 활용한 채용 평가는 인종∙피부색∙민족∙종교∙국적∙성별∙성 정체성∙성적 지향∙나이∙가족 상태∙장애∙유전자 정보 등에 기반해 차별을 해선 안 된다. 조직은 차별적인 채용 패턴이 지속되지 않도록 채용 평가 모델을 신중히 검토하고 면밀히 조사해야 한다. 

조직은 장애를 배제하지 않는 방식으로 채용 평가를 설계하고 진행하며 적절한 편의를 제공해야 한다. 또 AI 채용 솔루션이 피부색, 영어가 익숙하지 않은 사람, 논바이너리(Non-binery·남성과 여성을 이분화하는 기준에서 벗어난 사람), 트랜스젠더, 젠더 비순응자를 부당하게 차별하지 않도록 해야 한다. 

2. 직무 연관성 

AI 채용 평가에서도 사람이 면접관일 때처럼 직무 수행에 중요한 특성과 능력을 측정해야 한다. 이를 위해 조직은 특정 직무에 필요한 지식∙기술∙능력을 연구하고 이해하는 데 필요한 작업을 해야 한다. 

조직은 AI 기반의 채용 평가가 면접자에 대해 무엇을 왜 판단하는지 설명할 수 있어야 한다. 그리고 AI가 구직자에 대해 평가한다고 주장하는 것이 실제로 평가되고 있는지 채용 현장에 활용되기 전 검증돼야 한다.  

3. 통지와 설명

AI 면접관은 지원자에게 그들이 어떻게 평가받을지에 대한 의미있는 통지를 전달해야 한다. 지원자들은 자신이 평가받는 방법이나 성과의 피드백에 대한 설명을 거의 받지 못하기 때문이다.

조직은 구직자를 평가하기 위해 수집된 정보를 포함해 지원자에게 AI 채용 시스템이 어떻게 적용되는지 의미있는 정보를 제공하고 합격 여부도 알려줘야 한다. 

4. 감사 

AI 채용 평가는 배치 전후 차별과 직무 연관성에 대해 정기적으로 철저하게 감사 받아야 한다. 조직은 합당한 개인정보 보호와 정보 보안의 요건을 갖추고, 차별과 직무 연관성에 대한 정기적 감사에 필수적인 데이터를 명확하게 파악하고 보존해야 한다. 또 반드시 AI 채용 평가를 지속적이고 전체적으로 감사해야 한다. 

뿐만 아니라 제3자와 협력해 차별적인 고용 설계와 관련해 그들이 배치한 채용 평가를 정기적으로 감사해야 한다. 조직은 자체적인 테스트와 제3자 감사의 방법과 그 결과를 공개해야 한다.

5. 감독과 책무성

정책 입안자들은 새로운 기술∙법적 표준을 개발하고, 규제 기관이 유효한 조사권과 AI 채용 평가 사용에 있어 동등한 기회가 보장될 수 있도록 책임감을 부여해야 한다.

규제 기관은 조직에 대한 감독권과 이런 집행을 수행하는 데 필요한 법적 권한, 자원, 전문성을 가져야 한다. 정부 기관, 고용주의 AI 채용 평가 기술에 대한 조달과 사용은 투명해야 한다.

정책 입안자들은 예상 가능한 채용 도구를 고려해 시민권∙인권에 관련한 법률을 해석하는 새로운 규제와 지침을 고려하고 제3자 감사의 기준 개발을 장려해야 한다. 
 

회원가입 후 이용바랍니다.
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
저작권자 © 테크월드뉴스 무단전재 및 재배포 금지
이 기사와 관련된 기사