기술 발전에 긍정적, 충분한 논의로 대처 가능
AI 문제는 이미 발생 중, 신중한 선택 필요

[테크월드뉴스=양승갑 기자] 최근 범용인공지능(AGI: Artificial General Intelligence)이 업계의 화두다. 스스로 새로운 지식을 찾고 일반적인 AI가 갖추지 못한 자가학습능력을 보유했기 때문이다. 발전 가능성이 무궁무진하다. 그러나 일각에서는 AGI야말로 인류를 위협하는 ‘스카이넷’이 될 수도 있다고 우려한다.

AGI에 대해 발전 가능성이 무궁무진하지만 일부 전문가들은 통제되지 않는 AGI를 우려한다 [사진=게티이미지뱅크]
AGI에 대해 발전 가능성이 무궁무진하지만 일부 전문가들은 통제되지 않는 AGI를 우려한다 [사진=게티이미지뱅크]

 

AI와 AGI의 가장 큰 차이는 학습 방식에 있다. 현재 개발 중인 대부분의 AI는 사람이 직접 데이터를 제공해야 하며 데이터셋을 학습시켜야 한다. 그러나 AGI는 다르다. 스스로 학습하기 때문에 발전을 거듭한다면 추론·인지 영역에서 인간과 같은 능력을 보일 수도 있다.

현재 오픈AI가 개발 중인 AI 모델 ‘큐스타(Q*)’가 가장 가까운 AGI 모습으로 추정된다. 디인포메이션, 로이터 등은 내부 사정에 정통한 관계자의 말을 인용하며 연구원들이 향후 큐스타의 성공 가능성을 매우 낙관적으로 전망한다고 보도했다. 큐스타가 비록 초등학생 수준의 수학 문제를 해결하는 것에 그쳤지만 수학적 문제를 해결하기 위한 인지, 학습화 등 능력을 갖춘 것으로 알려졌기 때문이다.

 

▶ 많은 영역의 자동화, 더 인간적인 것에 집중

AGI가 어떻게 발전할지에 대해 다양한 의견이 나온다. AGI에 대해 긍정적 입장을 내비치는 측은 AI가 더 고도화된 형태로 발전한다면 거의 모든 영역에서 사람에게 도움이 될 것으로 예상한다.

오픈AI 샘 알트먼(Sam Altman) CEO의 발언이 대표적이다. 그는 지난 2월 오픈AI 블로그를 통해 “AGI가 성공적으로 개발된다면 풍요를 증진하고 세계 경제를 활성화하며 가능성의 한계를 바꾸는 데 도움이 될 수 있다”고 설명했다.

엔비디아의 젠슨 황(Jensen Huang) CEO는 29일(현지시간) 뉴욕타임스 딜북서밋 행사에서 향후 5년 이내에 AGI가 실현될 것으로 내다봤다. 비즈니스인사이더 등에 따르면 그는 AGI의 구체적인 모습을 예측하지는 않았다. 다만 AGI를 ‘상당히 경쟁력 있는’ 기본 지능이 반영된 테스트가 가능한 소프트웨어로 정의했다.

업계 관계자는 “인류를 위해 천천히 기술을 발전시켜 나가야 한다는 입장과 이룰 수 있을 때 빠른 발전을 이루고 필요한 규제를 챙기자는 두 입장이 존재한다”며 “분명 AGI가 초래할 여러 위험이 있지만 충분한 논의를 통해 대처 가능할 것으로 믿고 있다”고 전했다.

이어 “AGI가 보편화된다면 많은 부분의 자동화를 이룩하게 될 것이며 인간은 보다 ‘인간적인’ 것들에 집중하게 될 것이라 생각한다”며 “너무 많은 규제와 제약은 변화할 세상을 오히려 지연시키게 되므로 AGI에 대한 균형 잡힌 시각을 인지하는 것이 가장 중요”이라고 덧붙였다.

구글 딥마인드 연구팀은 “AGI의 잠재적 위험은 자율성 수준과 관련 있다”고 설명했다 [자료=구글 딥마인드]
구글 딥마인드 연구팀은 “AGI의 잠재적 위험은 자율성 수준과 관련 있다”고 설명했다 [자료=구글 딥마인드]

 

▶ AGI에 대한 균형 잡힌 시각 인지해야

일부 전문가들은 통제되지 않는 AGI를 두려워하며 AI로 인한 종말을 가속화시키는 요소가 될 것으로 예측한다. 챗GPT로 대표되는 AI의 급속한 성장은 이제 1년을 바라보고 있다. 그러나 이미 윤리·사회적인 측면에서 AI를 악용하는 사례가 발생 중이다.

인물의 표정이나 목소리를 학습하는 딥페이크 기술의 오용이 대표적인 예시다. 불법 음란물에 사용되는 딥페이크 기술은 이미 기술 개발 초창기부터 예견된 문제였다. 또한 클라우드 통신 플랫폼 링오버(Ringover)의 연구에 따르면 1000명 이상의 응답자 중 단 2%만이 AI가 생성한 음성과 사람의 목소리를 정확하게 구별했다. AI가 보이스피싱 등 범죄에 활용된다면 더 큰 피해가 예상된다. AI가 생성한 펜타곤 폭발 사진이 소셜네트워크서비스 상에 퍼지면서 S&P 지수가 0.26%가량 하락한 적도 있다.

AGI에 대한 명확한 정의가 필요하다는 의견도 있다. 구체적인 개념이 설립돼야 오용, 사고, 혼란 등에 대한 논의가 진척될 수 있다는 이유에서다.

이와 관련해 구글 딥마인드 연구팀은 AGI의 새로운 정의와 전체적인 분류 체계를 정리하는 논문을 11월 초 공개했다. 연구팀은 AGI를 ▲신흥(Emerging) ▲유능한(Competent) ▲전문가(Expert) ▲거장(Virtuoso) ▲초인(Superhuman) 등 다섯 가지 단계로 구분했으며 현재 기술이 신흥 수준을 넘어선 적이 없다고 설명했다. 챗GPT, 바드, 라마2 등이 신흥 단계다.

다만 연구팀은 “AGI의 잠재적 위험은 자율성 수준과 관련 있다”며 “책임감 있고 안전한 AI 시스템을 배포하기 위해 자율성 수준을 신중하게 선택하는 것이 중요하다”고 강조했다.

다른 관계자는 “AI 기술이 전환점에 도달해 업무를 획기적으로 변화시키는 것은 분명한 사실이다”며 “다만 일부 사람들은 새로운 기술에 대비하지 못할 수도 있기 때문에 규제 및 일자리 전환에 대한 준비가 이루어져야 한다”고 말했다.

회원가입 후 이용바랍니다.
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
저작권자 © 테크월드뉴스 무단전재 및 재배포 금지
이 기사와 관련된 기사
불륜 CEO가 개발하는 AI가 윤리적일 수 있을까?
AI 범위가 확대되면서 이로 인한 논란도 증가하는 추세입니다. 업계 관계자들은 AI를 어떻게 개발하고 사용할지, 구체적인 논의가 필요하다는 입장인데요. AI를 둘러싼 윤리적 논쟁들은 어떻게 진행되고 있을까요?
AI 시대 경쟁력 ‘개인화’, 라이너의 방향성은 ‘에이전트’
AI 스타트업 라이너는 거대언어모델(LLM)이 아닌 애플리케이션 영역에서 차별화가 이루어져야 한다고 내다봤습니다. 이를 위해 라이너는 어떤 준비를 하고 있을까요?