AI, 공공 영역 효율 증진하나 위험성도 존재

[테크월드=이혜진 기자] 기술의 변화는 정부의 형태와 운영 시스템을 바꿔왔다. 농업∙산업∙정보 혁명에 따라 정부의 형태와 운영 방법이 바뀌었듯 인공지능(AI) 시대에도 정부의 형태와 모습은 조금씩 달라질 전망이다.

AI를 기반으로 한 정부의 모습은 정보화 시대 전자정부의 발전과 연계해 이해해야 한다. AI가 공공 영역에서 활용되는 사례와 행정에 가져올 변화, 위험성엔 어떤 것들이 있을까.

공공 영역에 도입된 AI

1990년대 이후 정부는 네트워크로 연결되면서 각 부처 간, 중앙정부와 지방정부 간 시스템을 연계했다. 그러면서 정부의 데이터를 연계, 정부와 국민 간에 쌍방향 소통이 가능해졌다. 최근 지방자치단체와 정부 기관에선 비대면 행정이라는 이름 아래 빅데이터에 기반한 AI를 민원 상담에 적용하고 있다.

특히 지난해 5월 개통된 병무청의 AI 챗봇 '아라'는 365일 24시간 예비 군인의 지원 분야와 요건, 병역 신청, 입영일자 등 병무 민원을 상담하고 있다. 병무청에 따르면 서비스 오픈 이래 누적 질의 수는 130만 건, 응답률은 96%에 이른다. 

AI가 행정에 가져올 변화는?

AI가 행정에 미치는 영향을 거버넌스(조직의 행정 관리 시스템)와 인사 관리(HR)의 관점에서 살펴보면 다음과 같다. 

1) 거버넌스: 데이터 거버넌스(Data Governance), 알고리즘, 민주주의

AI의 발전에 따라 조직의 행정 관리 시스템은 새로운 형태로 나타날 것으로 보인다. AI는 대용량의 정부 데이터를 처리해 과학적인 분석을 돕는다. 빠르고 효율적인 의사 결정도 지원한다. 또 복잡한 이해관계에 관한 예측을 분석해 공공 정책에 대한 의사 결정을 지원할 수 있다. 

AI와의 협업은 공무원이 일하는 방식을 바꿀 것으로 보인다. 공무원은 기획성과 창의성이 요구되는 업무를, AI는 업무 지원이나 단순하고 반복적인 자료를 작성하는 식이다. 

다만 AI 기술의 책임 범위에 있어서 재량권의 문제가 발생할 가능성이 있다. 영국 공직생활윤리위원회는 지난해 2월 'AI와 공공윤리'라는 보고서에서 AI가 위협하는 공직 생활의 원칙 가운데 '책임성에 대한 도전'을 언급한 바 있다. 조직의 책임 체계와 의사 결정의 책임 소재가 불분명하다는 것이다. 

또 ▲공개성에 대한 도전: 관련 정보를 충분히 제공하지 않을 경우 투명성을 저해할 위험 ▲객관성에 대한 도전: 데이터 편향으로 차별 확산∙증폭 등을 위험 요인으로 꼽았다. AI가 공익성, 신뢰성과 같은 불확실한 개념의 가치를 측정하기 어렵다는 한계도 있다. 

AI 알고리즘의 작동 방식을 알 수 없는 점도 문제다. 이로 인해 공무원이 AI의 의사 결정 과정을 이해하지 못할 가능성도 존재한다. 

일부 플랫폼 기업이 이를 악용해 데이터와 부를 축적하면 정부보다 많은 권력을 행사할 우려도 배제할 수 없다. 유기윤 교수 등 3인의 서울대학교 공대 연구진은 지난 2017년 '미래의 도시에서 시민들이 어떻게 살아갈 것인가'라는 주제로 연구한 보고서에서 4차 산업혁명이 본격화한 2090년께 전 세계는 AI 권력이 계급을 나누는 이른바 '초양극화 사회'가 될 것이라는 전망을 내놓은 바 있다.

2) HR: 창의적인 인재 채용∙배치∙교육

AI는 정부의 인적 자원 개발에도 영향을 미칠 전망이다. 또 신입 공무원 채용과 인력 배치, 교육 등에 있어서도 AI를 활용하는 것이 가능하다. 일반적으로 AI 시대에는 복잡한 문제 해결력, 비판적인 사고력, 창의력, 감성 지능(EQ), 소통 능력, 인지적인 유연성, 협업 능력 등을 갖춘 인재가 각광받는다. 이 같은 인재를 선택하는 과정에서 AI가 이용될 수 있다. 

특히 정부기관 산하의 공기업은 이미 2018년부터 AI 면접을 도입했다. 구체적으로는 자산관리공사(캠코), 한국정보화진흥원, 전파통신진흥원, 한국방송통신전파진흥원 등이다. AI가 인간의 편견을 없애고 후보를 평가∙선발하는 과정에서 커뮤니케이션의 효율성을 높일 수 있다는 것이 도입 배경이다. 

공공기관 AI의 위험성 

다만 공공기관들의 AI 도입에는 위험성도 존재한다. 영국 국가 전문기관인 앨런튜팅 연구소는 공공기관의 AI 시스템이 고려해야 할 '해악 우려'를 ▲편향과 차별 ▲개인 자율성, 권리 구제, 권리 행사 거부 ▲불투명성, 설명 불가능성, 부당한 결과 ▲사생활 침해 ▲사회적 관계 단절과 고립 ▲신뢰할 수 없고 안전하지 않으며 품질이 낮은 결과물 등으로 분류했다. 

정부는 이 같은 위험성을 고려해 공공 영역에 AI를 확대할 것으로 보인다. 지난해 11월 문재인 대통령은 '한국판 뉴딜, 대한민국 인공지능을 만나다' 행사에 참석해 '국가 인공지능 윤리기준' 마련 계획을 언급하며 "데이터 편향성, 개인정보 침해 등 역기능을 최소화하고 사라지는 일자리로 인해 인간의 존엄성이 훼손되지 않도록 안전망을 두텁게 만들겠다"고 밝혔다. 

이어 "대한민국의 꿈은 코로나 이후 시대 선도 국가가 되는 것으로, 바로 인공지능을 가장 잘 활용하는 나라"라며 "사람 중심의 따뜻한 인공지능 시대를 열겠다"고 역설했다.
 

회원가입 후 이용바랍니다.
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
저작권자 © 테크월드뉴스 무단전재 및 재배포 금지
이 기사와 관련된 기사