시민단체 ‘이루다’ 사건에 정부 개입 요구…섣부른 통제와 제한은 족쇄에 불과하다

[아이티데일리] 지난 7월 30일, 국가인권위원회(이하 인권위)는 시민단체들이 AI 챗봇 ‘이루다’에 대해 제기한 인권침해와 차별 발언에 대한 진정 사건을 각하했다. ‘이루다’는 인격체가 아니므로 조사 대상이 될 수 없고, ‘이루다’를 개발한 스캐터랩은 민간기업이므로 국가인권위원회법 상 진정사건 조사대상에 해당하지 않는다는 이유다. ‘이루다’에 의한 구체적인 피해를 확정하기 어렵다는 점도 고려됐다. 다만 AI에 의한 인권침해 문제는 중요하게 다뤄져야 할 사안이기 때문에 정책 과제로 넘겨 검토하겠다는 뜻을 밝혔다.

시민단체들은 인권위의 결정에 즉각 반발하고 나섰다. “‘이루다’ 사건에서 발생한 프라이버시 침해, 혐오 표현 및 차별의 문제를 회피하는 결정”이라는 지적이다. 앞서 시민단체들은 인권위에 진정서를 제출하며 “(‘이루다’ 사건은) AI 기술의 남용이 인권에 미칠 수 있는 부정적인 영향을 보여준 대표적인 사안”이라며, 국가의 적극적인 개입을 통해 이러한 위험요소를 제거해야 한다고 강조한 바 있다. 이는 ‘이루다’ 사건 이후 수없이 제기된 AI 윤리, 혹은 윤리적 AI에 대한 담론의 연장선으로 보인다.

그러나 ‘이루다’ 사건에 AI 윤리에 대한 잣대를 들이대는 것이 과연 옳은가? ‘이루다’가 부적절한 발언을 내뱉은 원인은 윤리성을 무시했기 때문인가? 그렇지 않다. ‘이루다’가 혐오나 차별을 이야기한 것은 스캐터랩이 서비스를 개발하는 과정에서 사회 규범과 미풍양속을 무시했기 때문이 아니라, 오직 ‘이루다’를 만드는 과정이 기술적으로 완전하지 못했기 때문에 일어났다. AI 챗봇이 학습하는 데이터에서 불건전한 내용을 배제하거나, 서비스 출시 이후 사용자들이 나쁜 말을 입력하더라도 챗봇이 이를 학습하거나 표현하지 못하도록 필터링할 수 있는 기술 말이다.

일반인 대상으로 공개된 AI 챗봇이 부적절한 문장을 학습하는 것은 선례를 통해 익히 예상된 바다. 마이크로소프트는 지난 2016년 트위터를 통해 스스로 학습하는 대화형 AI ‘테이(Tay)’를 공개했지만, 이용자들이 차별적인 표현과 부적절한 용어를 가르치면서 악의적인 발언을 쏟아내게 됐다. ‘이루다’가 공개됐을 때에도 수많은 이용자들이 ‘나쁜 말’을 가르쳤다. 스캐터랩은 자사 블로그를 통해 “인간이 AI에게 사회적으로 용인되지 않는 인터랙션을 한다는 것은 너무 자명한 사실이었고, 충분히 예상할 수 있는 일”이라며, “(개발 단계에서부터 부적절한 키워드를 막을 수 있도록 최선을 다했지만) 모든 부적절한 대화를 완벽히 막는 것은 어렵다고 생각했다”고 설명했다.

챗봇이 사람의 말을 학습하는 이상 언제든 ‘나쁜 말’에 노출될 수 있다. 이용자들이 ‘나쁜 말’을 하지 않기를 바라는 것은 현실적이지 않고, 의식을 계몽시키겠다고 나서는 것은 너무 이상적이다. 그렇다고 사용자들과의 상호관계를 포기하고 완전히 도덕적인 표현만을 학습시키거나 학습 기능 자체를 없애버리면 챗봇이 존재할 의미가 사라진다. 이 문제를 해결하기 위해서는 철저히 공학적으로 접근해야 한다. 악의적인 의도와 표현에 노출돼있으면서도 이를 선별적으로 학습할 수 있는 기술이 필요하다는 의미다.

안타깝게도 AI 챗봇은 앞으로도 크고 작은 문제들을 빈번히 일으킬 것이다. 윤리적인 AI를 만들기 위한 노력은 거듭 실패를 맛보게 될 것이다. 하지만 이런 실패가 개발사의 도덕적 해이나 AI 윤리에 대한 고민이 부족해서 일어난 것이 아니라면, 그저 기술이 충분히 여물지 못해 발생한 일이라면 이를 좀 더 관대한 시선으로 지켜볼 필요가 있다. 우리가 해야할 일은 사회가 용납할 수 있는 경계를 정하고 챗봇이 이 안에서 문제를 일으키도록 하는 것이다. 앞으로 일어날 수 있는 사건사고에 지레 겁먹고 아예 문제의 원인을 제거하려 들면 챗봇이 가져올 수 있는 모든 가능성 또한 사라지게 될 것이다.

저작권자 © 아이티데일리 무단전재 및 재배포 금지