이창신 테스트웍스 CTO

▲ 이창신 테스트웍스 CTO

[아이티데일리] 6월 10일, 아마존과 마이크로소프트(MS), IBM은 미국 정부가 관련 기술사용에 관한 규정을 제정할 때까지 1년간 안면 인식 기술을 경찰에 판매하지 않기로 선언했다. 이러한 발표는 조지 플로이드(George Floyd)가 경찰에 의해 사망한 후 미국 주요 도시에서 일어나고 있는 대란과 폭동으로 야기된 것이다. 정부 기관이 개인을 추적하기 위해 얼굴 인식을 사용할 경우, 개인 정보 보호 및 보안 문제가 발생하기 때문이다.

안면인식 기술이 범죄자를 추적하는 것과 같은 좋은 목적으로 사용된다 하더라도, 기술이 완벽하지 않기 때문에 흑인과 같은 소수 인종에 대한 차별의 도구로 사용될 수 있다. 이러한 결함이 있는 안면 인식 시스템을 사용하면 조지 플로이드 사건과 같이 소수 인종들이 잘못된 신원 조회로 인해 심각한 피해를 입을 수 있다.

인공지능(AI)이 학습하는 데이터셋에 남성이 범죄를 하는 데이터가 많다면, 남성이 경찰로부터 더 가해자로 인식될 가능성이 높아진다. 나이, 지역, 방언 및 장애와 관련해서도 동일한 편견이 발생한다. 미국의 IT 직원 중 75% 이상이 남성인 점을 감안할 때, AI 시스템에서 이런 많은 명시적, 암묵적 편견이 존재할 것이란 사실을 짐작할 수 있다.

최근까지 AI 분야에서 일하기 위해서는 대학, 대학원, 박사 과정 등 수년간의 교육을 받아야 했다. 권력이 소수의 개인에게 집중되었을 때, 그것은 군주제, 독재 정권, 독재, 권위주의 등 여러 이름으로 불리게 된다. AI의 편견은 선택된 소수의 손에 의해 중요한 결정이 이루어지면서 생겨나는 직접적인 결과이다. 그러므로 AI의 민주화는 모든 사람이 AI에 접근할 수 있도록 근본적으로 문제를 해결하려는 운동이다.

텐서플로우(TensorFlow), 케라스(Keras), 파이토치(PyTorch) 및 카페(Caffe)와 같은 인기 있는 ML 라이브러리는 공개 소스이며 무료로 제공된다. ‘fast.ai’ 및 ‘OpenAI’와 같은 회사는 사용하기 쉬운 AI 인터페이스를 제공하고 모든 사람에게 훌륭한 학습 리소스를 제공하는 것을 사명으로 여기고 있다.

하버드, MIT, 스탠포드와 같은 최고의 대학에는 누구에게나 열려 있는 AI 및 머신 러닝 과정들이 있다. ‘Coursera’ 및 ‘Udemy’와 같은 MOOC 플랫폼에서도 유사한 과정들을 제공하고 있고 이미 많은 성공 사례가 있다. 2018년에는 ‘fast.ai’ 학생들로 구성된 작은 팀이 상위의 구글(Google) 코더들과 경쟁하여 이미지 분류 대회에서 우승했다. 많은 기업가, 낙농업자, 어부, 주부, 노인 등의 일반인들이 ‘fast.ai’ 및 기타 온라인 수업을 수강하며 AI의 민주화 운동을 벌이고 있다.

더 많은 사람들이 인공 지능을 활용할 수 있도록 힘을 실어 주어야 하지만 더 심각한 문제가 존재한다. 협업 필터링(collaborative filtering)은 대부분의 추천 시스템에서 사용하는 기술이다. 쉽게 설명하자면 다른 유사한 사용자의 정보를 기반으로 사용자의 취향을 예측하는 방법이다. 유튜브, 트위터, 페이스북 등과 같은 인기 있는 소셜 미디어는 이런 유사한 방법을 사용하여 사용자가 관심을 가질 수 있는 링크를 추천한다. 모두 다 처음 시작한 한 사이트에서 클릭을 계속 하다 보면 전혀 방문할 생각이 없었던 엉뚱한 내용을 보게 되는 경험을 누구나 한번쯤 했을 것이다. 자유롭다는 것은 환상이다.

표면적으로 보면 문제는 심각하지 않은 것처럼 보인다. 단지 생산적으로 사용할 수 있는 소중한 시간을 낭비한 것뿐이다. 그러나 아무 생각 없이 클릭한 행동이 심각한 결과를 내포하고 있다. AI가 권장하는 내용의 링크를 클릭하면 할수록 생각이 더 편향되는 경향이 생긴다. 우리의 생각은 보고 듣는 것에 의해 대부분 결정된다. AI의 편견 증폭(bias amplification)은 사용자에게 더 편향된 콘텐츠를 권장하며 클릭을 하면 할수록 AI 학습 데이터로 쓰이는 클릭 스트림은 더 편향된 데이터로 변한다. 악순환이 발생되는 것이다.

소셜 미디어의 급진주의화는 이미 많이 입증된 현상이다. 비슷한 사람들이 같은 소셜 미디어 커뮤니티에 모여 들면서 그들은 자원해서 편향된 내용으로 세뇌를 받게 된다. 백인 우월 주의자와 같은 급진적인 집단들은 모두 극단주의 이데올로기를 전파하고 젊은이들을 자신의 급진주의로 끌어 들이기 위해 소셜 미디어를 이용하고 있다. 이런 추세는 전 세계적으로 유행하는 코로나로 인해 사람들이 더 고립되고 더 외로움을 느끼면서 소셜 미디어에 의존하면 할수록 더 심화될 것이다.

소셜 미디어의 급진주의화를 멈추기 위해서는 근본적인 조치가 필요하다. 간단한 방법은 소셜 미디어 사용을 완전히 중단하는 것일 수도 있다. 한국에서도 유명인들 중에 악성 댓글로 극단적인 선택을 한 사례가 있어, 아예 소셜미디어 ‘금식’을 하는 것도 권장되는 한 방법이다. 그러나 이것은 인터넷 시대, 특히 코로나 19로 인해 도래한 ‘원격의 시대’에는 쉽지 않은 일이다. 정부 규정이 필요하고 기업 윤리에 호소하는 것도 필요하지만, 각 인터넷 사용자는 각자의 인터넷 사용을 자제함으로써 ‘행위의 주체(인지심리학에서 말하는 agent)’가 되어야 한다.

다른 가정에서도 그렇겠지만 필자의 가정에서도 아이들의 미디어 시간을 제한하려고 노력한다. 숙제가 끝난 후에야 스마트 폰을 사용할 수 있게 하는 것이 우리집 규칙이다. 아이들은 그 시간을 ‘자유 시간’이라고 부르지만, 아이들이 무엇을 할지는 보지 않고도 정확히 알 수 있다. 십중팔구 스마트 폰을 붙잡고 있는 것이다. 아이들의 자유 시간은 그렇게 자유로워 보이지 않는다. 자유롭다는 것은 환상이다.

미래의 세대들이 우리 현 시대를 되돌아본다면, 너무 일찍부터 아이들에게 스마트폰을 사용하게 했다는 점에 충격을 받을 것이다. 많은 국가에서 흡연 가능 연령은 18세이지만, 미국에서는 2019년에 흡연 가능 연령을 21세로 올렸다. 법적 흡연 연령 제한은 미국에서 1880년대 초에 시작되었지만 담배의 악영향은 일찍이 1602년에 발견되었다. 담배 사용에 연령제한을 두는 것을 법제화시키는 데에만 무려 200년 이상의 시간이 걸렸다. 이 역사를 교훈 삼아 인터넷과 소셜 미디어의 법규 제정이 더 빨리 이루어지기를 바란다.

법이 제정되기 전까지는 부모나, 교육자, 기업 지도자 및 개인이 기술을 현명하고 책임감 있게 사용하는 법을 배워야 한다. 주말과 퇴근 후 시간제한을 두거나 아예 쓰지 않는 것도 좋은 방법이다. 각 개인이 자유 의지를 가지고 결정하고 선택하는 ‘행동의 주체’가 될 때에만 자유인이라고 말할 수 있다. 절제는 자유의 다른 말이다.

좋든 싫든 AI는 우리 생활 속에 이미 깊숙하게 들어와 있다. AI의 편견을 해결하기 위해서는 개인뿐만 아니라 법률 입안자, 기업 지도자의 조치가 필요하다. 모든 사람들은 적어도 개념적으로 AI가 어떻게 작동하는지 알아야 하며, AI 시스템 구축에 직간접적으로 관여해야 한다. 시작은 어렵지 않다.

무료 머신 러닝 과정에 등록하고, 데이터를 기부하고, 인공데이터 가공 프로세스에 참여하고, 사이트에서 추천하는 링크를 아무 생각 없이 클릭하지 않거나, 스마트 폰을 내려놓고 산책을 하는 것으로도 시작할 수 있다. 빼앗긴 인공지능의 봄은 우리 손끝에 달려 있다. 각 사용자가 행동의 주체가 될 때에만 AI의 봄이 올 수 있고, 우리는 드디어 자유를 누릴 수 있을 것이다.

“우리는 마침내 자유를 얻었습니다. 마침내 자유를 얻었습니다. 전능하신 하나님 감사합니다. 우리는 마침내 자유를 얻고야 말았습니다.” -마틴루터 킹 목사의 연설 중

저작권자 © 아이티데일리 무단전재 및 재배포 금지