[테크월드뉴스=이광재 기자] 인공지능(AI)의 급속한 발전에 따라 주요 국가들이 관련 규제를 위한 입법에 속속 나서고 있다. 그러나 규제의 실효성과 현실 적용 가능성에 대해서는 여전히 의문이 제기되고 있다.

미국은 현재 762건의 AI 관련 법안이 심의 중이며 이 중 단 31건만이 공식 채택된 상태다.

활발한 논의가 이뤄지고 있음에도 불구하고 실제 입법으로 이어진 사례는 아직 많지 않아 제도적 기반 마련에 시간이 더 필요할 것으로 보인다.

한국 역시 ‘AI 기본법’을 중심으로 규제 체계를 정비하고 있다. 해당 법안에 따르면 인공지능 관련 법률을 위반한 개인이나 단체에게는 최대 3000만원의 벌금이 부과될 수 있다. 그러나 이 같은 제재가 실제 AI 위반 행위를 억제하는 데 충분한지에 대해선 전문가들 사이에서도 의견이 엇갈리고 있다.

이현재 서프샤크(Surfshark) 한국 지사장은 최근 AI 관련 규제 움직임에 대해 “AI 규제는 마치 개인정보보호 열풍이 불던 GDPR 초기 시절을 떠올리게 하지만 이번에는 상황이 더 복잡하다”며 “GDPR은 EU에 비교적 늦게 도입됐고 AI 규제 역시 비슷한 흐름을 따르고 있으나 AI 기술 발전 속도에 비해 제도적 대응이 뒤처지고 있는 것이 현실”이라고 우려했다.

이어 그는 “AI가 급속히 진화하는 가운데 새로운 법안들이 초기 개인정보보호법이 기업에 가했던 것과 유사한 압력을 재현하려 한다”며 “당시와 지금의 차이는 우리의 데이터가 이미 대규모 언어 모델(LLMs)에 제공됐으며 이를 되돌리거나 제거하는 것은 사실상 불가능하다”고 말했다.

이 지사장의 발언은 AI 규제 논의가 단순한 프라이버시 보호를 넘어 기술의 본질과 현실적 한계를 고려해야 함을 시사하고 있다.

[출처=서프샤크]
[출처=서프샤크]

AI 규제에 대한 다양한 접근 방식

사이버 보안 기업 서프샤크는 미국과 유럽연합(EU)이 인공지능(AI) 규제라는 변화하는 과제에 어떻게 대응하고 있는지 분석한 연구 결과를 발표했다.

보고서에 따르면 EU는 기본권 보호와 신뢰할 수 있는 AI 확산을 위해 중앙집중적인 프레임워크를 채택했으며 이는 유럽의 가치관에 기반한 혁신을 촉진하고자 하는 목적에서 비롯됐다고 볼 수 있다.

반면 미국은 연방 차원의 포괄적인 AI 법안 제정보다는 주(州)별 규제를 중심으로 한 분권화된 접근 방식을 택하고 있는 것으로 나타났다. 이 같은 ‘모자이크식’ 규제 체계는 지역별 자율성과 유연성을 보장하지만 통일성 부족이라는 한계를 동시에 안고 있다.

서프샤크는 “AI 기술이 급속도로 발전하고 있는 가운데 각국의 규제 전략은 해당 국가의 법적·사회적 가치관을 반영한다”고 설명했다.

이현재 한국 지사장은 “한국 정부는 오는 2026년 1월 말까지 AI 규제를 본격 도입할 계획”이라며 “이번 규제는 국내 기업뿐만 아니라 외국 AI 운영자에게도 책임을 묻는 방향으로 추진될 것”이라고 밝혔다.

정부는 AI 기술을 개발하거나 서비스를 제공하는 외국 기업의 경우 일정 기준(사용자 수 또는 매출 기준)을 충족하면 한국 내 대표자를 지정해야 하며 이를 관할 장관에게 보고하는 의무를 부과할 예정이다.

또 이들 기업은 AI 기본법에 명시된 다양한 책임과 규제를 이행해야 하며 규정 위반시 행정 처분이나 벌금 등의 제재를 받을 수 있다.

이 지사장은 “AI 기술이 국가 경계를 초월해 빠르게 확산됨에 따라 한국 역시 국제 기준에 맞춘 규제 체계를 구축하려는 움직임을 보이고 있다”며 “이는 국내 사용자 보호는 물론 글로벌 기업의 책임 강화에도 기여할 것”이라고 했다.

더불어 딥페이크 기술의 급속한 확산과 그에 따른 사회적 위협을 지적하며 한국이 관련 규제에 박차를 가하고 있다고 밝혔다.

그는 “현재 가장 빠르게 성장하면서 통제되지 않은 AI 분야 중 하나는 딥페이크 기술”이라며 “특히 딥페이크 포르노에 대한 통제에 한국 정부가 집중하고 있다”고 전했다.

그에 따르면 가해자에 대한 처벌 강화, 잠복 수사관의 활용 확대, 소셜 미디어 플랫폼에 대한 규제 강화가 대표적인 대응책으로 검토되고 있다. 최근에는 딥페이크 영상이 대통령 선거 캠페인을 방해한 사건이 발생하기도 했다.

이 지사장은 “이러한 사건은 적절한 규제가 없을 경우 얼마나 큰 사회적 혼란을 야기할 수 있는지를 보여주는 대표적인 사례”라고 설명했다.

미국 AI 입법 선도하는 ‘뉴욕’, 규제 중심지로 부상

미국 50개 모든 주가 AI 관련 법안을 도입했지만 대부분은 여전히 입법 과정에 머물러 있다. 현재 주 의회에서 총 762건의 AI 법안이 심의 중이며 이 중 단 54건만이 공식적으로 법률로 제정됐다. 또 다른 31건은 입법 절차를 통해 채택됐고 27건은 주지사 승인을 기다리는 단계에 있는 것으로 나타났다.

미국에서 AI 관련 법안 제정에 가장 활발히 참여하고 있는 주들은 뉴욕(106건), 텍사스(72건), 뉴저지(67건), 매사추세츠(49건), 버지니아(46건)이며 일리노이(45건), 캘리포니아(44건), 메릴랜드(43건), 하와이(40건), 조지아(32건), 몬태나(32건) 순이다. 이들의 관심사는 개인정보 보호와 윤리부터 AI가 고용과 공공 안전에 미치는 영향까지 다양하며 AI의 사용과 규제 방식에 대한 강력한 관심을 반영하고 있다.

미국에서 AI 관련 법안의 수가 가장 많은 5개 주요 분야는 의료 분야(전체 법안의 12.6%), 정부 분야(11.9%), 교육 분야(11.6%), 민간 분야(10.5%), 범죄 분야(8.3%) 순이다.

AI 규제 입법에서 형사법 분야는 미결 법안 비율이 48%로 비교적 낮아 입법 처리의 우선순위로 여겨지고 있다. 그러나 실제 법안 통과 현황을 보면 이 같은 기대와는 차이가 있다.

현재 미국 전역에서 형사법 관련 AI 법안 중 주지사의 승인을 앞두고 있는 법안은 단 2건, 실제로 통과된 법안은 3건에 불과한 것으로 나타났다. 이는 형사법 분야가 실제로 얼마나 신속하게 입법화되고 있는지에 대한 의문을 제기한다.

대표적인 사례로는 테네시주에서 계류 중인 법안이 있다. 이 법안은 딥페이크 이미지 피해자가 실제 손해에 대해 배상 청구를 할 수 있도록 하고 심각한 경우 최대 15만달러의 법정 손해배상을 청구할 수 있는 조항을 포함하고 있다. AI 기술의 확산 속도가 가속화되는 가운데 형사법 분야에서의 입법적 대응이 얼마나 실효성을 가질 수 있을지 주목된다.

AI 규제 위반시 ‘최대 3500만유로’…EU, 강력한 과징금 제도 도입

반면 EU AI 법은 위험 기반 접근 방식을 채택해 AI 시스템이 사회에 미치는 위험, 특히 안전, 개인정보 보호, 개인의 자유와 관련된 위험을 기준으로 규제를 적용하기 시작한다.

주요 우선순위에는 생체 인식 분야에서의 기본권 보호, 의료 및 법 집행과 같은 고위험 분야에서의 위험 관리, 투명성과 책임성 확보가 포함된다. 이 법은 지원 프로그램을 통해 윤리적 혁신을 촉진하며 EU 회원국간 규정을 조화시켜 통합된 AI 시장을 창출하는 것을 목표로 한다.

AI지능법(AI Act)을 준수하지 않을 경우 상당한 금전적 처벌을 받을 수 있다. 제99조 처벌에 따르면 제5조에서 금지하는 부적절한 위험을 초래하는 AI 관행에 대한 위반은 최대 3500만유로(한화 약 560억) 또는 전년도 재무연도 기준 해당 기업의 전세계 연간 매출액의 7% 중 더 높은 금액의 과징금을 부과받을 수 있다.

이 지사장은 “최근 개인정보보호 분야에서 빅테크 기업들의 영향력이 심각한 문제로 지적되고 있다”며 “수년간 사람들은 빅테크 기업들의 영향력 아래에서 개인정보보호 정책이 자신들에게 유리하게 조작되는 행위에 휘둘려 정보에 기반하지 않은 결정을 내릴 수밖에 없었다”고 밝혔다.

이로 인해 다수의 사용자가 무의식적으로 개인 데이터를 제공하게 됐으며 이러한 데이터는 대규모 언어 모델(LLM) 훈련에 저가 상품처럼 취급되고 있다는 점도 문제로 꼽힌다.

이 지사장은 “사실 이 정보는 본래 사용자에게 속해야 할 권리임에도 불구하고 사용자 권리를 우선시하지 않는 현실이 지속되고 있다”며 “새로운 법규들이 기술 발전이나 기업 이익에 부정적인 영향을 미치지 않도록 설계되는 경우가 많아 실제로 누구의 이익이 보호되고 있는지 의문이 든다”고 말했다.

최근 AI 챗봇이 온라인상에 공개된 방대한 데이터, 특히 개인 정보와 민감한 데이터를 학습하면서 개인정보 보호에 대한 우려가 커지고 있다.

미국과 유럽연합(EU)은 이를 대응하기 위해 개인정보 보호 법안을 도입했으나 실효성에 대한 비판이 제기되고 있다. 전문가들은 이러한 법안들이 대규모 언어 모델(LLMs)에 의존하는 정보 소비 방식에 대해 사용자가 실제로 거부할 수 있는 실질적인 선택권을 제공하지 못한다고 지적한다. 이로 인해 법안이 강력한 보안 조치라기보다는 단순한 약속에 그친다는 평가가 나온다.

이현재 지사장은 ”최근 대규모 언어 모델(LLMs)이 인터넷에서 수집한 방대한 데이터셋을 기반으로 구축되고 있으나 투명성·책임성·개인의 선택권이 결여되어 있다”며 “이는 개인정보 보호를 중시하는 법규와 정면으로 충돌하는 문제로 반드시 개선돼야 한다”고 강조했다.

회원가입 후 이용바랍니다.
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
저작권자 © 테크월드뉴스 무단전재 및 재배포 금지