AI 기본법, ‘고영향 인공지능’ 두고 논쟁 심화

‘영향’ 단어 포괄성, 모호성 규제에 적합지 않아…기업들 ‘시간 부족’ 호소

2025-08-09     권영석 기자

[아이티데일리] 내년 1월 시행을 앞두고 있는 AI 기본법의 ‘고영향 인공지능’ 용어를 두고 논쟁이 심화되고 있다.

우리나라 인공지능기본법은 유럽연합(EU)의 ‘고위험(High-risk)’ 대신 ‘고영향 인공지능’이라는 용어를 채택했다. 이러한 용어 선택은 AI 개발자의 행위보다는 AI가 실제 서비스되는 활용측면에서 사회적 영향을 관리하려는 정책적 의도를 반영한 것으로 평가된다. 그러나 ‘영향’이라는 단어의 포괄성과 모호성이 규제로서 적합하지 않다는 지적이 제기된다.
(이미지=챗GPT 생성)

최근 업계에 따르면, AI 기본법의 전체적인 구조는 ‘위험’을 관리하는 방식과 유사하지만 ‘영향’이라는 단어를 사용함으로써 개념적 정합성이 떨어진다는 비판이 나온다. 포괄적인 단어는 객관적이고 구체적인 규제 기준으로 정립하기 어려워, 법적 안정성을 해칠 수 있다는 것이다.

반면 ‘고영향’ 용어를 옹호하는 측에서는 ‘위험’이라는 개념이 갖는 경직성을 지적한다. AI 기술이 사회에 미치는 영향은 ‘위험’만이 아니며 발생할 수 있는 복합적인 영향을 포괄해야 한다는 것이다. 특히 법안이 진흥법적 성격을 띠는 만큼, 기술 개발 자체를 위축시킬 수 있는 ‘위험’보다는 사회적 효과를 관리하겠다는 ‘영향’이라는 표현이 더 적절하다는 주장이다.

하지만 업계 관계자들은 용어 논쟁보다 과연 누가 어떤 기준으로 고영향 AI를 판단하고 관리할 것인가가 중요하다고 입을 모은다. 먼저 AI 기본법은 인공지능 사업자가 자사 시스템이 고영향 인공지능에 해당하는지 사전에 자체 검토하고, 판단이 어려운 경우 과학기술정보통신부(이하 과기부)에 확인을 요청하도록 규정한다.

그러나 과기부의 확인 행위가 기업의 권익에 직접적인 영향을 미치는 ‘처분적 성격’을 가지므로 신중한 접근이 필요하다는 지적이다. 명확한 기준과 절차를 확보해 판단 주체와 절차의 효율성 및 예측 가능성을 높일 필요가 있다는 설명이다.

또한 규제 대상에 대한 논의도 이어지고 있다. 현재 법안은 최종 서비스 단계의 AI에 초점을 맞추고 있으며 그 기반이 되는 AI 모델에 대한 규제는 부재하다는 우려다. 이는 가장 중요한 위험 요소를 규제 사각지대에 방치하는 것이고, 이러한 접근은 유럽연합(EU) 등 주요국의 동향과도 맞지 않는다는 지적이다.

한국 ICT 융합협회 백양순 회장은 “AI 기본법은 개선해야할 점이 있긴 하지만 선도적인 제도다. 해외 관계자들은 벌써 이 정도로 선도적인 규제를 만들고 있다는 점에 놀라기도 한다”며 “앞으로 여러 관계자가 협력해 AI 기본법을 발전시켜 나간다면 우리 산업계가 발전하는데 크게 뒷받침할 수 있을 것으로 기대한다”고 강조했다.

한편 내년 1월 시행을 앞둔 AI 기본법이 아직 세부 시행령과 가이드라인을 확정하지 못해 계획대로 되겠냐는 우려가 있다. 특히 클라우드 서비스를 주력으로 하는 기업들은 법 시행까지 최소 1년의 준비 기간이 필요하다고 주장한다.

구글코리아 박선민 상무는 “업계를 대표해서 가장 전달하고 싶은 말은 시간이 부족하다는 것이다. 이달에 세부 내용이 공개된다고 해도 계획대로라면 5달 안에 준비를 마쳐야 한다”며 “과징금 부문을 계도하는 방안이 고려 중인 것으로 아는데 기업으로서는 과태료가 부과되지 않더라도 조사가 시작되는 것만으로 부담이 크다”고 말했다.

국내 한 AI 기업 관계자는 “지속적으로 AI 기본법 시행령이 지연되는 배경에 계도 기관 관련 논쟁이 주요하게 작용하고 있는 것으로 안다”고 밝혔다.