[인터뷰] “AI 기본법 하위 법령, 진흥·안전 외 ‘사회 현안 해결 방안’ 담겨야”
한국법제연구원 이유봉 박사
[아이티데일리] 현재 우리 정부를 비롯해 전 세계 많은 나라들이 인공지능(AI)에 수많은 자본과 인력을 투입하고, 관련 법·제도를 정립하며 주도권 경쟁에 뛰어들고 있다. 지난해 12월 26일 우리나라도 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안(이하 AI 기본법)’을 제정하며 AI 국가로 한 걸음 나아갔다. 하지만 ‘산업 진흥’과 ‘AI 위험성에 따른 안전 확보’ 등에 관해 산·학·연·관 각계 의견이 갈리면서 AI 기본법 제정 과정은 그리 순탄치 않았다. 특히나 AI 기본법은 타 법과 달리 상세한 내용들이 담기지 않았다. 비교적 추상도가 높은 법이기에, 세부적인 내용은 정부가 하위 법령 제정 작업으로 보완할 것으로 예상된다. 한국법제연구원에서 AI 관련 법안을 깊이 있게 연구했던 이유봉 박사를 만나 AI 기본법의 하위 법령에 담길 내용이 가져야 할 방향성에 대한 제언을 들어본다.
“법안 수는 많지만, 부처 AI 활용에 초점”
우리나라의 현행법 중 인공지능(AI)을 언급하고 있는 법령은 대략 57개다. 국가 AI 정책의 기틀인 ‘AI 기본법’을 비롯해 정책적으로 중요한 기능을 하는 법령으로는 ‘지능정보화 기본법’이 존재하고, 거버넌스 체계로서 의미 있는 법령은 ‘국가인공지능위원회의 설치 및 운영에 관한 규정’이 있다. 정부의 행정 서비스에서의 AI 활용을 염두에 둔 ‘행정기본법’과 ‘전자정부법’, AI를 이용한 자동화된 결정에 대한 개인정보 주체 권리에 관한 ‘개인정보보호법’, 딥페이크를 이용한 선거운동행위에 관한 ‘공직선거법’ 등도 중요한 AI 관련 법령에 속한다.
이 외에도 우리 정부가 AI 관련 계획, 정책, 시책, 사업, 기술개발 등을 수립하거나 추진하도록 하는 개별 정책영역에서는 ‘바둑 진흥법’, ‘디지털의료제품법’, ‘댐건설법 시행령’, ‘생명공학육성법’, ‘제약산업법’, ‘스마트제조혁신법’, ‘소재부품장비산업법’, ‘돌봄통합지원법’, ‘항로표지법’, ‘정보통신망법’ 등의 법령이 존재한다. 국회 계류 중인 관련 법안은 이보다 훨씬 많다.
지난 21대 국회와 현재 22대 국회에서 상정됐던 법률안 중 AI에 대한 언급이 있었던 법안은 21대 약 190건, 22대 약 100건 정도로 총 290건의 법안이 제안됐다. 또한 스탠포드 대학의 AI 인덱스에 따르면, 한국은 2016년부터 2023년까지 총 11건의 AI 관련 법이 통과됐다. 법의 수적인 측면에서 미국(23개)에 이어 4번째 순위다. 이는 한국의 AI 관련 법안이 수적으로 적지 않다는 점을 방증한다.
하지만 한국법제연구원 이유봉 박사에 따르면, 우리 정부의 AI 관련 법률들은 대부분이 정부 부처 및 산하기관의 정책 시행 과정에서의 AI 활용과 개발에만 초점이 맞춰졌다. 산업 활성화나 보안, 안전성에 대한 구체적인 고려 사항이 반영되지 않았다.
이에 대해 이유봉 박사는 “산업 활성화와 관련된 법을 꼽자면 벤처기업 집적시설의 지정 요건인 기업에 AI 관련 기업을 포함하는 ‘벤처기업법 시행령’, 보안 및 안전성과 관련된 디지털의료제품의 기능에 영향을 미치는 AI 알고리즘에 대해 성능평가를 할 수 있도록 하는 ‘디지털의료제품법’이 있다. 하지만 기존의 제도 적용 대상에 AI를 하나 추가한 정도로 AI에 대한 산업 혁신이나 안전을 고려했다고 보기는 어렵다”고 말했다.
“부실한 AI 기본법, 활용 확대 시 발생할 논쟁 해결 대책도 담겨야”
우리 정부는 지난 2024년 12월 26일 AI 기본법을 제정했다. 22대 국회에서 발의된 AI 기본법은 기존 국회에 계류된 AI 관련 19개의 법률안을 병합해 제안된 법이다. AI 기본법에는 △계획·거버넌스 △기술개발 및 산업육성 △안전성·신뢰성 확보 △제도 인프라 등의 내용이 담겨 있다.
AI 기본법에서는 AI를 ‘학습, 추론, 지각, 판단, 언어 이해 등 인간이 가진 지적 능력을 전자적 방법으로 구현한 것’으로 정의하고 있다. 특히 에너지 공급, 보건의료, 범죄 수사 등 11개 분야에서 사용되는 ‘고영향 AI’에 대한 규제 근거가 포함됐다. 국가 차원의 AI 발전을 위해 과기정통부 장관은 3년마다 국가 AI 경쟁력 강화 기본계획을 수립해야 한다는 내용과, 국가인공지능위원회 및 인공지능안전연구소의 설립 근거도 마련됐다.
이유봉 박사에 따르면, AI 기본법에는 AI 산업 진흥 정책과 규제에 대한 근거가 담겼다. 산업 육성 측면에서는 R&D 지원, 표준화, 학습용 데이터 구축, AI 도입 및 활용 지원 등 다양한 정책 추진 근거가 마련됐다. 또한 AI 집적단지 지정, 데이터센터 구축, 전문인력 양성 등을 통해 AI 생태계 발전도 촉진할 계획이다.
고영향 AI와 생성형 AI에 대한 규제도 포함됐다. AI 사업자들은 AI를 이용한 제품이나 서비스를 제공할 때 이용자에게 사전 고지해야 하며, 생성형 AI의 결과물임을 명확히 표시해야 한다.
다만 현재 우리 정부의 AI 기본법은 윤곽만 잡혔을 뿐 구체적인 내용이 담기지 않았다. 특히 추상적인 부분이 많기에 상세한 내용은 하위 시행령으로 추진될 것으로 예상된다. 따라서 이를 위한 전문적인 정보를 다루고 의사결정을 할 수 있는 기관의 역할이 중요할 것으로 보인다.
이에 대해 이유봉 박사는 “AI 기본법의 위상 및 적용 범위를 고려해 하위 법령으로 상세하고 다양한 내용들이 반영돼야 한다는 숙제가 남아 있다. 미국의 경우 ‘바이든 대통령 훈령’에는 AI 기술의 안전 및 보안과 혁신·경쟁·협력의 촉진뿐 아니라 근로자 지원, 평등과 시민권 증진, 소비자 보호, 개인정보 및 프라이버시 보호, 정부의 역할, 국제적 역할 등 사회 전반에 영향을 줄 수 있는 광의적 내용이 포함돼 있다. 이를 통해 AI가 국민들의 생활과 기업 업무에 확산할 때 따라올 근로 현장 및 소비자 문제, 개인정보나 지적재산권에 관한 문제 등 논쟁의 소지가 있는 문제에 대한 해결 근거를 사전에 마련했다”면서 “이러한 관점에서 향후 우리나라의 AI 기본법 하위 법령에도 앞서 언급한 논쟁의 소지가 있는 영역을 규범적이고 기술적으로 해결할 수 있는 복합적이고 다양한 대책이 담겨야 한다. 또한 AI 기본법이 행위 주체나 의무 등에 있어 구체성이 부족한데, 향후 국내 AI 산업과 이용자 생태계 형성 추이에 맞게 구체적인 내용들이 보완돼야 할 것”이라고 제언했다.
다음은 이유봉 박사와의 인터뷰를 일문일답으로 구성한 것이다.
“진정한 AI 강국의 핵심요소는 AI 기반 사회 발전 역량에 있다”
Q. EU의 AI 액트와 AI 기본법의 차이는 무엇인가.
A. EU AI 액트는 위험 기반 접근법을 취하고 있다. 위험의 단계를 △허용될 수 없는 위험 △고위험 △제한된 위험 △최소 위험 등 4단계로 나눈다. 특히 ‘허용될 수 없는 위험’을 가진 AI는 예외적 경우를 제외하고는 금지한다. 또 ‘고위험’ AI에 대해서는 위험을 관리하기 위한 다양한 관리 수단을 두고 이를 위한 의무를 부과한다.
우리 법은 ‘위험’ 기반이 아닌 ‘영향’ 기반이다. 이 점이 차이라고 볼 수 있다. 우리나라의 AI 기본법 입법과정에서 주로 논쟁이 됐던 사안도 금지되는 AI와 고위험 AI의 인정 여부 및 정의에 대한 내용과, 해당 AI에 대한 위험 관리 수단에 관한 것이었다. 우리나라는 논란 끝에 ‘고위험’ 대신 ‘고영향’이라는 개념을 도입하고 ‘고영향 AI’에 대해 ‘사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 인공지능 시스템’이라고 정의한 바 있다.
이 외에도 한국의 AI 기본법은 EU AI 액트와 달리 직관적이고 추상적으로 AI를 정의하고 있다. EU는 AI 관련 사업자를 제공자, 배포자, 수입업자, 역내 대리인, 유통업자, 운영자, 다운스트림 제공자로 구분하고 있다. 이에 비해 우리나라 AI 기본법은 개발사업자(AI 개발·제공자)와 이용사업자(개발사업자가 제공한 AI로 AI 제품 또는 AI 서비스 제공자)로 구분하고 있다. EU는 행위자를 세분하고 있는 만큼 각 행위 주체에게 부과되는 의무에 대해 유형별로 다르게 규정하고 있다. 우리나라는 행위자 유형이 단순해 행위 의무 등이 다소 일반화돼 규정됐다는 점에서 차이가 있다. 세부적으로 구분하지 못했다는 것은 추상적일 수 있다는 의미이기도 하다.
AI의 개념적 측면에서도 EU AI 액트는 ‘AI 시스템(입력을 통해 물리 또는 가상 환경에 영향을 미칠 수 있는 예측, 콘텐츠, 권고, 결정 등의 산출물을 생성하는 방법을 자율적으로 추론할 수 있는 기계기반 시스템)’을 규율 대상으로 정의하고 있는 반면, 우리나라 AI 기본법은 ‘인공지능(학습, 추론, 지각, 판단, 언어의 이해 등 인간이 가진 지적 능력을 전자적 방법으로 구현한 것)’을 규율대상으로 정의한다.
법 위반 시 제재에도 차이가 있다. EU AI 액트는 기업 규모를 고려해 매출액의 최대 7% 또는 3,500만 유로에 달하는 과징금을 부과할 수 있도록 하고 있다. 우리나라의 AI 기본법은 3,000만 원 이하의 과태료를 부과하도록 하는 점에서 법의 준수나 집행력에 있어 큰 차이가 발생할 것으로 예상된다.
Q. 한국의 AI 경쟁력 및 기술 수준과 전망은.
A. 객관성을 위해 스탠포드 대학에서 발표하는 AI 인덱스 지표를 기준으로 한다면, 종합 7위이며 전망은 그렇게 좋다고 볼 수는 없다. AI 인덱스 지표는 AI 관련 혁신, 경제, 정책, 거버넌스, 대중 참여 등에 관한 연구논문, 민간투자, 특허, 법 등 42개의 주요 지표 데이터를 바탕으로 36개국의 AI 생태계 현황을 측정해 지수화한 것이다.
결과적으로 미국이 압도적으로 1위를, 그 뒤를 중국이 차지하고 있다. 또 1위인 미국과 다른 나라들과의 격차가 매우 크다. 주목할 만한 머신러닝 모델의 수도 미국이 61개, 중국이 15개로 다른 나라를 절대적으로 압도한다. 우리나라는 종합 7위로 나타나고 있지만, 세부 지표를 보면 긍정적인 부분도 있고 우려스러운 부분도 많다.
우리나라는 민간 AI 투자 지표를 기준으로 2023년 13억 9천만 달러로 세계 9위 규모다. 1위인 미국의 672억 2천만 달러에 비하면 2%에 불과하다. 지난 10년간 AI로 인한 생산성 향상 정도는 1.4%로 조사 대상 국가들의 평균 수준에 해당한다. 산업로봇의 도입률은 중국, 일본, 미국에 이어 세계 4위이나 10년 전에 비해 낮아졌고, 최근의 증가율은 1%로 현저히 낮아지고 있어 우려스럽다.
그나마 긍정적인 부분은 한국이 인구 대비 AI 관련 특허 수가 가장 높은 나라로 나타났다는 점이다. 그러나 우리나라는 R&D 투자 비율이 높지 않고, 2019년부터 2023년까지 AI의 인재 유출이 가장 높은 나라 중 한 곳이다. 이것은 한국의 AI 미래를 매우 암울하게 전망할 수밖에 없는 주목할 만한 부분이다.
Q. 정부는 어떠한 관점으로 AI 기본법을 바라봐야 하고, 어떠한 지원을 해야 하는가.
A. 통상 AI를 비롯해 ICT 신기술과 관련한 입법을 논의하는 경우, ‘진흥’과 ‘안전’에만 몰두하는 이분법에 입각하는 경향이 있다. 하지만 양쪽 중 하나의 가치에만 집중하기보다 △안전과 신뢰를 고려해 △기술을 설계하고 개발하며 △신뢰할 수 있는 제품을 완성해 △이용을 활성화하고 △산업 생태계의 건전한 발전을 유도해 △사회 전체 복리증진으로 이어질 수 있도록 각 단계를 연계한 체계를 만드는 것이 중요하다.
이런 방향에서 핵심은 정부의 적극적인 투자와 지원이다. 과거 한국이 IT 강국이 될 수 있었던 것은 국가 차원의 공격적 투자와 지원이 있었기 때문이다.
AI 기본법이 위험이 아니라 영향을 기본 개념으로 잡았다는 점은 부정적 영향 외 긍정적 영향도 함께 보겠다는 취지다. 긍정적 영향을 주는 AI에 대해 국가 차원의 투자와 지원이 적극적으로 이뤄져야 하고, 민간의 투자도 긍정적 방향성을 갖고 이뤄지는 것이 필요하다고 생각한다.
그리고 AI 인재 양성 측면에서도 자유로운 상상력에 기반한 창의성을 현실화할 수 있도록 환경을 조성해야 한다. 인재 유출이 이뤄지지 않고 오히려 제3국의 우수 AI 인재들이 한국을 찾아올 수 있는 환경을 마련해야 한다. 또한 LLM 글로벌 시장이 미국 중심으로 집중화되는 가운데, 전략적으로 sLLM을 위한 AI 학습데이터의 개발을 위한 지원도 필요할 것으로 보인다.
Q. AI 기본법과 향후 마련될 시행령을 토대로 산·학·연·관은 어떠한 노력을 해야 하는가.
A. AI 기본법에서는 구체적인 내용을 시행령으로 위임하고 있다. 향후 위 제도를 어떤 식으로 구성하는 것이 좋을지에 관한 중지를 모아야 한다. EU 법과 비교해 보면 우리 법은 행위 주체나 의무 등에 있어 구체성이 떨어지는 부분이 있다. 향후 산업 및 이용자 생태계의 형성에 따라 구체적인 내용들이 보완돼야 할 것으로 보인다.
아울러 AI 기본법 및 하위 법령을 토대로 AI와 관련한 사회적 분위기 조성에도 힘써야 한다. 젊은 세대를 중심으로 창의적이고 도전적 분위기를 만드는 것이 중요하다. 우리 삶과 공동체 문제의식에서 나오는 해결 방안에 대한 새로운 아이디어가 AI 기술을 적용하는 방식으로 실험되고, 그 결과물들이 사회에서 소중하게 쓰일 수 있는 바탕을 마련하는 것이 필요하다고 생각된다. 초기에 이러한 토대를 만드는 데 있어 정부의 역할이 매우 중요하다.
AI를 단순히 기술과 경제적 패권의 수단으로만 접근하기보다, 우리 미래 삶을 만드는 수단으로 생각해서 젊은 인력의 기술과 지식 육성 외에도 그들의 삶과 연계된 정책들이 이뤄지면 좋겠다. 예를 들면 농촌, 항만, 관광, 행정 등 지역적 특성에 기반해 다양한 AI 스타트업 캠퍼스와 데이터센터를 마련하고, 입주하는 개발자나 사업자들의 주거와 생활, 학습, 창업 등을 지원하며 이들을 위한 기반 시설과 네트워크에 대한 적극적인 인프라 구축 지원이 있어야 한다. 그리고 이러한 도전에 대한 가치평가가 제대로 이뤄지고 지속적으로 유지될 수 있는 환경이 마련돼야 젊은 세대가 현실에 안주하지 않고 도전적 시도를 하게 될 것이다.
교육이나 연구 현장도 보다 지역이나 산업현장 등 현실 상황과 연계한 문제 의식을 갖고, 해결을 위한 개발과 창업이 용이하게 이뤄질 수 있도록 프로그램이나 프로젝트를 개발하는 등의 노력을 해야 한다.
Q. 마지막으로 강조하고 싶은 부분이 있다면 말해달라.
A. 우리가 살아가는 사회는 크고 작은 해결해야 할 문제들이 산적한 상황이다. 시장에서 소비되는 제품과 서비스는 결국 시장의 논리에 따라 생산되고 소비되지만, 민간에서 접근하기 어려운 기후변화, 고령사회, 지역소멸 등의 사회적 문제해결에 향후 AI가 기여할 바도 크다고 생각한다. 공익적 부분에 활용되는 AI에 대해 정부가 관심을 가지고 정책을 추진했으면 한다.