구글코리아, 두 차례 ‘책임감있는AI포럼’ 성료…AI 기본법 주요 쟁점 논의

산업 생태계 관점 충분히 반영한 AI 기본법 필요 모호한 규정 재정비해 과잉 규제 지양해야

2025-05-26     권영석 기자

[아이티데일리] 구글코리아 디지털책임위원회는 ‘책임감있는AI포럼’을 두 차례 개최해 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하 AI 기본법)’에 관한 주요 쟁점을 논의했다고 26일 밝혔다.

책임감있는AI포럼은 구글코리아가 책임감 있는 디지털 생태계 조성을 위해 지난해 초 발족한 디지털책임위원회 산하 포럼 중 하나다. 올해는 법조계, 정책, IT·기술, 스타트업 등 각계 분야 전문가 14인이 멤버로 참여, 연간 4회 AI 발전을 둘러싼 국내외 법제화 동향 및 사회 윤리적 문제 등을 살펴보고 책임감 있는 AI 개발과 활용 방안을 모색했다.

지난 3월 1회차 책임감있는AI포럼에서 이성엽 고려대학교 기술경영전문대학원 교수가 발표하고 있다. (사진=구글코리아)

지난 3월 열린 1회차 포럼은 AI 기본법의 핵심 쟁점 중 하나로 꼽히는 ‘고영향 AI의 정의와 전망’을 주제로 진행됐다. AI 기본법은 인간의 생명과 안전, 기본권 등에 중대한 영향을 미칠 수 있는 AI 시스템을 11개 분야에 걸쳐 ‘고영향 AI’로 규정하고 있으나, 일각에서는 법안에 포함된 고영향 AI의 구체적인 범주가 모호해 법률 적용에 있어 해석의 차이가 발생할 수 있다고 지적됐다.

이에 AI 규제법 전문가인 고려대학교 이성엽 기술경영전문대학원 교수가 발제자로서 고영향 AI의 정의와 기준, 규제 현황 등을 검토하고 AI 산업 혁신을 촉진하는 동시에 안전성도 확보할 수 있는 접근 방안을 논의했다. 전문가들은 AI 산업 생태계의 관점과 현황이 충분히 반영되도록 법안을 개정하는 한편, 모호하거나 중복되는 조항은 재정비하고 후속되는 책무 및 절차를 보완해 갈 필요가 있다고 의견을 모았다.

지난 21일 2회차 책임감있는AI포럼에서 권은정 가천대학교 법과대학 교수가 발표하고 있다. (사진=구글코리아)

이어 지난 21일 진행된 2회차 포럼은 AI 기본법이 의무화한 ‘AI 안전성·투명성 확보와 AI 영향 평가’를 주제로 다뤘다. AI 기본법은 급격하게 발전하는 AI 기술이 불러올 수 있는 여러 위험을 예방하고 국민의 기본권을 보호한다는 취지로 AI 안전성 및 투명성 확보 조치와 AI 영향 평가를 의무화하고 있다. 그러나 △다양한 층위의 AI 산업에 안전성·투명성 확보 조치를 일괄적으로 강제하는 규정이 과잉 규제에 해당할 수 있다는 점 △AI 영향 평가의 대상과 범위, 방법을 규정한 기준이 모호하다는 점 등이 한계로 꼽혔다.

이와 관련해 건국대학교 이상용 법학전문대학원 교수는 ‘AI 규제의 두 가지 패러다임: 맥락 기반 규제와 능력 기반 규제’를 주제로 발표해, “AI 위험을 특정 이용 상황 중심의 ‘맥락 위험’과 잠재력 중심의 ‘능력 위험’으로 구분하고 AI 산업 변화에 대응하기 위해 유연하며 자율적인 규제와 국가적 전략 및 방향성이 필요하다”고 강조했다.

가천대학교 권은정 법과대학 교수도 ‘AI 영향평가: 의의, 현황, 과제’ 발표를 통해 “영향평가 제도의 의의와 국내외 현황을 소개하면서 다변화되는 리스크 유형을 고려한 AI 규제 법제화와 정부와 민간이 협력하는 AI 평가 통합 플랫폼 구축이 필요하다”고 말했다.

한편 전문가들은 스타트업을 비롯한 다양한 주체의 책임 부담과 AI 기술의 발전 속도, 국제 규범과의 정합성 등이 두루 고려돼야 한다고 강조하면서 AI 활용의 책임성과 규제의 정당성을 확보하는 데 보다 유연하고 단계적인 접근 방식이 필요하다고 입을 모았다.

카이스트 최재식 교수는 “대다수의 기업과 기관, 개인들이 AI 프로그램을 사용하는 시대에 AI의 안전하고도 효율적인 사용이 그 어느 때보다 중요하다”며 “기존의 AI 서비스들이 갖는 한계와 취약성에 얼마나 잘 대응하는지가 앞으로 AI의 책임성과 안전성, 나아가 AI 리더십의 향배를 결정짓는 요인이 될 것”이라고 밝혔다.