서울대학교 뇌인지과학과 이인아 교수
서울대학교 과학학과 천현득 교수
동국대학교 통계학과 이영섭 교수

[아이티데일리] 지난 2016년, 구글 딥마인드 챌린지에서 알파고가 이세돌 9단을 꺾으면서 인공지능(AI)의 시대가 시작됐다. 국가와 지역을 가리지 않고 모두가 AI 기술 개발 및 상용화에 뛰어들면서 창작물에서나 만날 수 있었던 AI가 우리의 일상에 보다 가까이 자리잡게 됐다. 하지만 한편으로는 기업들이 마케팅 목적으로 자사의 간단한 IT 기술에도 AI라는 단어가 남발하면서, 대중들이 AI에 대해 일부 부정적인 인식을 가지게 되기도 했다.

이후 몇 년이 흐르면서 AI 열풍도 어느 정도 소강상태에 접어들었다. 그래도 여전히 많은 기업들은 AI 기술 개발에 매진하고 있으며, 산업분야를 막론하고 AI 기술을 활용한 제품이나 서비스도 다수 등장하고 있다. 알파고 직후의 열기는 다소 사그라들었지만 기술이나 제품의 성숙도에 있어서는 안정기에 들어서고 있었다.

그리고 지난해 11월, 오픈AI가 챗GPT(ChatGPT)의 베타버전을 공개하면서 다시 한 번 전 세계적인 AI 열풍에 불을 붙였다. 일상적인 대화에서부터 전문적인 지식공유에 이르기까지, 챗GPT는 실제 사람과 대화하고 있는 것처럼 느껴질 정도로 고도화된 자연어처리(NLP, Natural Language Processing) 성능을 보여주면서 AI가 가지고 있는 가능성을 다시 한 번 증명해보였다. 이후 구글과 마이크로소프트 등 글로벌 초거대 IT기업들이 너나할 것 없이 AI 기술 고도화에 뛰어들면서 AI 경쟁이 가속화되기 시작했다.

다만 AI 기술 개발이 가속화되는 만큼 많은 문제들도 함께 드러나기 시작했다. 실업률 증가와 같은 간접적인 문제에서부터 편향된 데이터를 학습한 AI가 상용화되면서 AI 윤리에 대해 경각심을 불러일으킨 사건에 이르기까지, 이미 AI 기술은 많은 부작용들을 노출하고 있다. 특히 챗GPT 이후에는 대형언어모델(LLM, Large Language Model)이 가진 가능성이 부각되면서 AI 개발에 막대한 인프라와 자원을 투자하는 것이 일반적으로 자리잡았고, 이는 초거대 IT기업들의 과도한 경쟁과 맞물려 탄소배출량 증가와 같은 환경문제까지 일으키고 있다.

알파고에서부터 시작된 AI 시대의 가장 뜨거운 시기를 지나고 있는 가운데, 다양한 분야의 교수들을 만나 우리가 지향해야 할 AI의 미래에 대한 인사이트를 모아봤다.

[Interview 1] 서울대학교 뇌인지과학과 이인아 교수
서울대학교 뇌인지과학과 이인아 교수
서울대학교 뇌인지과학과 이인아 교수

Q. 초창기 AI는 뇌과학에서 빌려간 용어가 많은데, 유사성이 있는지?
컴퓨터공학에서 얘기하는 신경망(neural network)은 생물학적인 신경망과는 거리가 멀다. 세포는 아날로그 유닛이기 때문에 디지털 기술로 재현하기 어렵다. 다만 여러 개의 세포가 연결되면서 많이 쓰이는 연결은 강화되고, 안 쓰이는 연결은 약화되는 가소성(plasticity)을 디지털 기술로 재현하면서 신경망이라는 이름을 붙인 것이다. 용어를 만들 때 뇌의 정보처리 방식에서 힌트를 얻어가긴 했지만 실제로는 상당히 멀리 떨어져 있다고 생각한다.

과거에 앨런 튜링(Alan Mathison Turing) 같은 사람들은 컴퓨터가 진짜 인간처럼 사고하기를 기대했다. 이것은 지금 인간이 연구하고 있는 통계학과 기계학습 기반의 AI와는 다르다. 챗GPT는 전 세계의 단어를 학습해서 다음에 이어질 단어의 확률을 계산하는 알고리즘이며, 따라서 앨런 튜링이 보기에는 진정한 AI가 아닐 것이다. 하지만 챗GPT는 말의 의미를 모르는 상황에서 유창하게 말할 수 있다. 그러므로 지금까지 있었던 그 어떤 AI보다도 손쉽게 튜링테스트를 통과할 것이다. 아이러니한 일이다.


Q. 생물학적인 뇌의 사고방식과 AI는 어떻게 다른가?
생물학적인 뇌의 핵심적인 기능 중 하나는 바로 적응(adaptation)이다. 적응은 변화가 있는 환경에서 살아갈 때 필요한 기능이다. 고등동물의 뇌는 적응을 잘 하기 때문에 태어나서 처음 겪는 상황에 처하게 되더라도 빠르게 주변을 파악하고, 지금까지의 경험에 비추어 최선의 행동을 임기응변으로 만들어낸다. 바로 이 변화에 대응하는 능력에서 인간이 가진 생물학적인 지능과 챗GPT가 가진 기계지능의 차이가 나타난다. 

변화가 없는 것이 중요한 분야가 있다. 공장에서 제조공정을 수행하거나 의사들이 환자를 진료할 때는 돌발적인 변화가 없을수록 좋다. 이런 것은 이제 사람보다 AI가 더 잘 할 수 있을 것이다. AI에게는 반복학습으로 형성된 암기기억(rote memory)만이 있으며, 변화에 대응하는 능력이 없다. AI는 변화가 없는 환경에서 같은 작업을 반복적으로 수행할 때 최적의 퍼포먼스를 발휘한다. 하지만 변화에 대응하는 능력에서 AI는 빵점짜리 기술이다.

오늘날 AI에 기반한 기술 중에서 연구실 문턱을 넘느냐 마느냐 하는 기술들이 있다. 완전자율주행이 가능한 자동차나 자율주행드론 같은 것들이 대표적이다. 이들은 지금의 통계학적 기계학습 패러다임에서는 결코 완성되지 못할 것이다. 도로는 폐쇄된 연구실 환경이 아니다. AI가 경험하지 못한 일이 언제든지 일어날 수 있다. 자율주행 성능이 무한히 고도화된다고 하더라도 100% 완전해지지는 못할 것이다. 


Q. 일각에서는 과도한 AI 기술 발전 경쟁을 중단해야 한다고 주장하는데.
최근 챗GPT가 전 세계를 뒤집어놓았다. 챗GPT는 막대한 데이터와 인프라를 때려박으면 대부분의 문제는 해결 가능하다는 것을 보여줬다. 그런데 챗GPT로 촉발된 AI 기술 발전의 파도가 멈출 기색을 보이지 않는다. 그런데 우리는 이것이 과연 앞으로도 지속가능한 기술인지를 생각해봐야 한다. 막대한 데이터와 인프라로 돌아가는 챗GPT는 지속가능한 발전이나 탄소중립처럼 우리에게 중요한 다른 가치들과는 정반대편에 있는 기술이다. 하다못해 당장 국가 단위로 생각하더라도 지금 전 세계에 챗GPT를 만들고 운영할 수 있는 나라가 얼마나 되는가? 
발전을 이어가는 동기 역시 건전하지 않다. 오늘날 AI의 파도를 밀고 나가는 것은 사람들의 필요가 아니다. 구글이나 마이크로소프트 등으로 대표되는 거대 자본들의 힘이다. 그들은 자본을 투자했기 때문에 그것을 회수해야 하고, 그러기 위해서 사람들이 AI가 더욱 발전해야 한다고 믿도록 만들고 있다. 그래서 구글에서 AI를 연구하던 제프리 힌튼 같은 사람들이 AI 경쟁이 과열되는 것에 우려를 표하고 목소리를 내는 것이다. 


Q. 그렇다면 오늘날 AI 연구는 어떤 방향으로 나아가야 하는지?
AI가 미래에 꼭 필요한 기술이라는 데에는 동의한다. 단적인 예를 들어보자. 인간의 수명이 길어지면서 노인들은 증가하고 젊은 사람들은 줄어들고 있다. 우리나라만 봐도 베이비부머 세대가 젊은 사람들보다 훨씬 많다. 앞으로 점점 노동 가능한 인구가 줄어들고, 케어가 필요한 노인들은 늘어갈 것이다. 필요한 노동량은 늘어나는데 노동력은 줄어든다. 과거 산업화시대처럼 남아도는 노동력을 동원해서 무언가를 할 수 있는 시대가 아니다.

이런 곳에서 AI가 활용돼야 한다. 공장에서 물건을 생산하는 것처럼 앞으로의 인간이 할 수 없을 노동집약적인 일들을 AI와 로봇에게 명령하는 수준에서 사용돼야 한다. 엔지니어링의 진정한 가치는 사람이 못하는 일들을 대신하거나, 사람을 노동으로부터 자유롭게 만들어서 더 의미있는 일을 할 수 있도록 만드는 것에서 나온다.

그런데 챗GPT로 촉발된 거대 자본들의 AI 연구는 당장 우리에게 어떤 도움이 되는가? 지금의 AI 기술은 사람을 돕기 위해서가 아니라 더 많은 돈을 벌기 위해 개발된다. 한 번 경쟁이 시작되니 멈출 수가 없을 뿐이지, 이렇게 동기가 건전하지 않은 기술이나 산업적 스탠다드는 결국 지속가능하지 않을 것이다. 그런 점에서 제프리 힌튼 같은 사람들이 AI 기술 발전을 일시 중단하고 우리가 무엇을 하고 있는지 되짚어보자고 목소리를 내는 것이 무척 용기있는 일이라고 생각한다.


Q. 미래의 AI는 어떻게 될 것인가, 혹은 어떻게 되어야 하는가?
뇌는 어떤 판단을 내리거나 정보를 찾을 때 과거의 기억 모두를 뒤져보지 않는다. 뇌는 대부분 직관에 의존한다. 탁자 위에 놓여있는 게 사과라는 것을 알아내기 위해 지금까지 봤던 모든 정보 중 빨갛고 동그란 것들을 끄집어내서 매칭해보지 않는다는 의미다. 이러한 인간의 방식이 변화에 더 빠르게 적응할 수 있고, 결과적으로 생존에 더 유리하다. 에너지 효용성으로 따지자면 뇌가 쓰는 에너지는 백열전구 하나를 켤 정도에 불과하니, 챗GPT 같은 것들에 비할 바가 아니다. 겨우 그 정도의 에너지로도 뇌는 우리가 살아오면서 축적한 모든 정보들 속에서 직관적으로 올바른 정답을 찾아낼 수 있다.

어린이들은 새로운 것을 보면 만져보기도 하고 입에 넣어보기도 하면서 자기만의 모델을 만든다. 이렇게 만든 모델들을 엮어서 세상을 이해하고 인식이 발달해간다. 그래서 어떤 사람들은 생물학적 뇌를 흉내내기 위해서는 AI에게 최소한의 구조와 정보만을 주고, 필요하다면 언제든지 구조를 바꿀 수 있는 가변성을 줘야 한다고 주장한다. 하지만 막대한 데이터와 통계학, 그리고 기계학습으로 만들어진 AI에게는 발달해간다는 개념이 없고, 그래서는 변화에 대응하며 생존해나갈 수가 없다. 그런 점에서는 일론 머스크가 만든 테슬라봇(Tesla Bot) 같은 것들에 가능성이 있는 것 같다. 모니터 너머에서 답변의 정확도를 계산하는 대신, 연구실을 벗어나 통제되지 않은 환경을 접하며 생존하고 학습해나가는 AI. 이런 과정에서 오히려 더 뛰어난 AI가 만들어질 수 있지 않을까.

 

[Interview 2] 서울대학교 과학학과 천현득 교수
서울대학교 과학학과 천현득 교수
서울대학교 과학학과 천현득 교수

Q. AI를 개발할 때 중요하게 고려해야 할 문제는?
챗GPT 같은 것들을 보면 오늘날의 AI는 생각 비슷한 것을 하는 것처럼 보인다. 심리학이나 뇌과학의 잣대를 들이대면 인간의 두뇌가 작동하는 방식과는 다르지만, 일단 질문을 던지면 사람처럼 보이는 결과물은 잘 만들 수 있게 됐다. 이제 우리는 낯설지만 유용한 AI들과 더불어 살아가는 시대가 됐다.

그런데 우리는 AI와 함께 살아가면서 사람과 다른 여러 가지 문제를 경험하게 된다. 가장 먼저 부딪히는 문제는 불투명성이다. 사람 사이의 관계에서는 상호간에 이해가 가지 않는 부분에 대해 질문을 던질 수 있다. 그러면 서로 문제의식을 공유하고 설명을 통해 공감대를 형성하거나 해결책을 찾아나가는 것이 가능하다. 하지만 AI를 만드는 머신러닝, 딥러닝 모델들은 기본적으로 내부 구조를 들여다볼 수 없고 어떻게 작동하는지 정확히 알아내는 것이 불가능하다. 우리는 생각의 원리를 이해할 수 없는 동료와 함께 살아가야 하는 셈이다.


Q. 챗GPT가 혁신이라고 하지만 기술적으로는 그다지 달라지지 않았다는 얘기도 있다.
기술적인 변화가 없다는 점에 대해서는 동의한다. 우리가 AI를 만드는 방법, 즉 방대한 데이터를 확보하고 머신러닝을 돌려가면서 알고리즘을 파인튜닝하는 과정은 챗GPT도 다르지 않다.

하지만 챗GPT는 사용성 측면에서 많은 개선을 보여줬다. 특히 근본적인 아키텍처에 대대적인 수정을 가하지 않더라도 학습용 데이터를 스케일업하면 선형적인 성능 향상을 기대할 수 있다는 점이 중요하다고 본다. 이것은 우리가 가지고 있는 AI 개발 방법론이 아직 유효하다는 것을 의미한다. 실제로 방대한 데이터를 학습한 챗GPT는 언어학자들조차 기대하지 않았던 수준의 높은 성능과 정확도를 갖추고 있었다. 아울러 GPT-3 이후부터 발전속도가 가속화되기 시작해, 고작 몇 달만에 공개된 GPT-4는 학습 데이터를 스케일업하니까 여전히 선형적인 성능 향상이 일어난다는 것을 보여줬다. 그런 점에서 챗GPT가 보여준 발전을 낮게 평가할 수는 없을 것이다.


Q. AI에게 투명성이 요구되는 이유는 무엇인지?
투명성은 비단 AI에게만 요구되는 덕목이 아니다. 국가기관이나 기업에서도 투명성이 필요하다. 예를 들어 정부에서 어떤 정책을 결정해서 공표했다고 하자. 그런데 그 정책이 어떤 과정을 통해서 결정된 것인지 공개되지 않는다면 국민들이 받아들이기 어렵다. 신뢰가 형성되지 않기 때문이다. 병원에 갔더니 의사가 자세한 설명은 해주지 않고 수술 날짜를 잡자는 얘기만 한다면 그 의사를 믿을 수 있을까? 즉, 투명성은 우리가 AI에 대한 신뢰성을 확보하기 위해 반드시 필요한 요소다.

최근 기업의 채용 과정에서 AI를 사용하는 경우가 빈번하다. 지원자의 서류를 AI가 심사할 수도 있고, AI 면접관이 지원자의 인터뷰를 진행하기도 한다. 그런데 AI 면접 프로그램을 사용해서 채용심사를 진행한 후, 점수를 매겨서 100등까지만 채용하고 나머지는 불합격 처리했다고 하자. 그렇다면 불합격을 받은 사람이 그 결과를 납득할 수 있을까? AI가 어떤 근거로 내 점수를 낮게 평가했는지 알지 못하면 분명 불만이 생긴다. 내가 나이가 많아서 그런가? 성별 때문에 페널티를 받았나? 혹시 인종차별을 당한 것은 아닐까? AI 면접 프로그램의 작동 원리를 투명하게 알 수 없다면 사람은 알고리즘이 편향됐을지도 모른다는 생각을 하게 되고, 내가 불공정한 대우를 받았을지도 모른다는 의심이 들 것이다. AI를 사용하는 입장에서도, 그리고 그 결과에 영향을 받는 입장에서도 AI의 원리를 투명하게 아는 것은 무척 중요하다.

다만 모든 AI가 꼭 투명성을 확보해야 하는 것은 아니다. 예를 들어 AI가 사법적 판단을 내리거나 신용등급을 평가하는 경우, 혹은 채용면접을 대신하는 경우 투명성이 확보돼야 한다. AI의 답변이 인간에게 상당한 영향을 미칠 수 있기 때문이다. 반면 알파고와 바둑을 둘 때는 작동원리를 투명하게 알지 못해도 괜찮다. 왜 거기게 돌을 놓았는지 모르더라도 인간에게 그다지 큰 영향을 미치지 못한다. 다시 말해 AI가 고도화되면서 점점 더 우리 인간에게 영향을 미칠 수 있는 영역까지 확대될수록 AI 투명성에 대한 요구도 높아질 것이다.


Q. 일각에서는 과도한 AI 기술 발전 경쟁을 중단해야 한다고 주장하는데.
전 세계 석학들이 우려하는 바에 근본적으로는 공감한다. 오늘날 AI 기술 개발은 많은 자본을 가진 소수의 기업들이 과도한 경쟁을 통해 이끌어나가고 있다. 이러한 경쟁이 그리 건전해보이지는 않는다. 기술은 인간을 위해 쓰여야하는 것이며 자본을 떠받치기 위해 존재해서는 안된다. 

그런데 이게 비단 AI 분야에서만 일어나는 문제인가? 반대로 그렇지 않은 적이 한 번이라도 있었는지 생각해보자. 현대 자본주의 사회에서 기술이 순수하게 인간을 위해 쓰이는 분야는 없다. 모든 기술은 자본주의 원리에 의해서 개발되고 발전하며, 때로는 과도한 경쟁도 일어난다. 구글과 마이크로소프트가 AI 경쟁에 불을 붙이면서 새롭게 발생한 문제가 아니라는 얘기다. AI 분야의 경쟁이 가열되고 있는 것을 긍정적으로 보고 있지는 않지만, 실질적인 대안이 없는 상황에서 기술의 순수성을 논하거나 발전을 멈추자고 주장하는 것에는 동의할 수 없다. 

다만 그나마 다행스러운 것이 있다면 AI 기술 개발에 열을 올리고 있는 기업들이 겉으로 좋은 이상을 내세우고 있다는 점이다. 거대한 AI 모델을 학습시키는 데에는 막대한 에너지가 들어가고, 인프라를 냉각시키기 위해 물도 많이 쓰며 탄소도 많이 배출한다. 그런데도 왜 AI를 개발해야 하냐고 물어보면 인류 전체를 위한 것이라는 이상을 제시한다. 당장은 많은 자원을 투자해야 하지만 이를 통해 우리가 직면해있는 많은 문제들을 해결할 수 있으리라는 희망이다. 적어도 대외적으로 그런 비전을 가지고 있다는 것에 대해서는 다행이라고 생각한다.


Q. 미래의 AI는 어떻게 될 것인가? 혹은 어떻게 되어야 하는가?
앞으로의 AI 기술 발전이 지금처럼 더 큰 모델, 더 방대한 데이터를 학습하는 방향으로 이뤄진다면 언젠가 우리는 심각한 문제에 부딪힐 것이다. 그렇게 큰 AI 연구를 할 수 있는 집단은 전 세계적으로도 거의 없다. 대규모 자본과 인프라, 고급 인력을 갖춘 극소수의 기업들만이 AI 기술 발전을 이끌어나갈 수 있을 것이다. 그러면 AI 기술은 자연스럽게 일부 기업들만의 전유물로 전락하게 된다.

우리는 당장 기반시설이 작동하지 않으면 큰 불편을 경험하게 된다. 예를 들어 한전에 문제가 생겨서 전기를 사용할 수 없다든가, 어느날 갑자기 수돗물이 나오지 않는다든가 하는 경우다. 하다못해 카카오톡이 한 시간 마비되기만 해도 사회적‧경제적으로 상당한 영향을 받는다. 챗GPT처럼 일반 사용자들도 쉽게 접근할 수 있는 고급 AI 기술이 늘어난다면 AI는 앞으로 전기나 물 같은 기반시설과 같은 영향력을 가지게 된다. AI에 의존할수록 갑자기 AI가 작동을 멈추면 큰 파급효과가 일어날 것이다. 선출되지 않은 소수의 기업들만이 차세대 AI 기술 개발을 독점하고, 우리가 AI에 대한 의존성을 늘려갈수록 사회적인 불안은 급격히 증가할 것이다.

 

[Interview 3] 동국대학교 통계학과 이영섭 교수
동국대학교 통계학과 이영섭 교수
동국대학교 통계학과 이영섭 교수

Q. 최근 챗GPT가 AI에 대한 관심을 다시 불러일으키고 있다.
자연과학을 하는 사람들과 공학을 하는 사람들은 기본적으로 새로운 기술을 대하는 자세가 다르다. 공학자들은 일단 세상에 뛰어나가서 기술을 작동시켜보고, 거기서 얻은 데이터를 가지고 연구실로 돌아와서 이론으로 정립한다. 반면 자연과학자들은 연구실에 틀어박혀서 이론을 정립한 다음에 세상에 내보내야 한다고 생각한다.

통계학은 공학보다는 자연과학에 가까운 학문이지만, 요즘 같이 새로운 기술이 앞다투어 등장하고 발전해나가는 시대에는 오히려 공대적인 마인드를 가져야 한다. 연구실에서 AI의 이론적 토대를 생각하기보다 실사구시의 마음을 가져야한다는 얘기다.

챗GPT를 처음 사용했을 때 아주 굉장한 것이라고 생각했다. AI 기술 발전이 이 정도까지 이뤄졌다는 점이 놀라웠다. 그래서 내가 가르치는 학생들에게 적극적으로 챗GPT를 사용하라고 권했다. 당시에는 대학생들이 챗GPT로 과제나 논문을 대리작성하는 사례들이 사회적 문제가 됐었는데, 그렇다고 해서 챗GPT를 쓰지 말라고 얘기하는 것은 안될 말이다. 문제가 있다고 무조건 제한하기보다는 효과적으로 사용하는 방법을 가르치는 것이 교육자가 할 일이다.

예를 들어 논문을 쓸 때도 챗GPT를 사용할 수 있을 것이다. 논문을 쓸 때는 의외로 서론을 작성하는 데에 많은 시간이 소요된다. 논문과 관련된 선행연구를 살펴보고 정리하는 과정이 생각보다 까다롭기 때문이다. 정작 논문에서 가장 중요한 내용은 본문에 가서야 나올텐데, 서론을 작성하는 데에 시간과 역량을 많이 소모하는 것은 아깝다. 그러니 서론의 선행연구 분석에는 옛날 논문들을 잘 학습하고 있는 챗GPT의 도움을 받고, 본문에서 자신의 연구를 소개하는 데에 집중하는 것이 좋겠다. 다소 문제가 있다고 해도 무조건 배척하기보다는 효율적인 사용방법을 고민하는 것이 건설적이겠다.


Q. AI 연구자들이 가장 중요하게 여겨야 하는 가치는?
오늘날 머신러닝은 통계적인 기법들을 많이 사용하고 있다. 오히려 통계적인 기법과 데이터 마이닝 기법, 머신러닝 기법 등을 굳이 나눌 필요가 없다. 예를 들어 회귀분석은 통계학에 있는 기법이지만, 머신러닝에도 많이 사용되기 때문에 머신러닝 기법이라고 해도 틀리지 않는다고 생각한다. 순수한 머신러닝 기법들만 가지고는 해석이 안되는 요소들이 있고, 이런 것들에 대해서는 통계학을 포함해 다른 분야의 학문들이 해답을 내줄 수 있다. 그러니 머신러닝이든 통계학이든 결국 서로 다른 분야끼리의 소통이 중요하다.

최근 IT 분야에 종사하고 있는 직장인들 앞에서 머신러닝에 대한 강의를 진행할 기회가 있었다. 나는 통계학자이니만큼 실질적인 머신러닝 과정에 대해서는 그들보다 아는 게 적을 것이다. 그래서 통계학적인 관점에서 머신러닝에 쓰이는 기법들에 대해 설명하는 내용을 많이 담았다. CNN이나 RNN 같은 것들이 왜 만들어졌는지, 비하인드에 어떤 사상이 담겨있는지 등을 전달했다. 다행히 강의를 들은 사람들이 무척 좋아했다. 그동안 본인들은 그냥 잘 만들어진 라이브러리나 패키지들을 가져다 쓰기만 했는데, 그 안에 들어있는 요소들이 어떤 의미인지를 이해할 수 있었다는 것이다. 아마 그들은 머신러닝 기법에 대해 더욱 깊이가 생기고 응용력이 높아졌을 것이다. 이런 것들이 진정 의미있는 소통이다. 


Q. 일각에서는 과도한 AI 기술 발전 경쟁을 중단해야 한다고 주장하는데.
과거에 CPU가 처음 개발됐을 때 우리는 이제 컴퓨터로 모든 것을 할 수 있을 거라고 생각했다. 하지만 어느 순간 CPU만 가지고는 해결할 수 없을 정도로 복잡한 문제들이 등장했다. 머신러닝을 돌리면서 GPU의 병렬처리 성능에 감탄하게 되지만 결국 GPU로는 감당할 수 없는 대규모 모델들이 나타났다. 우리는 언제나 많은 문제에 부딪히고 새로운 기술로 그것을 해결한다. 그런데 그것만 가지고는 해결이 안돼서 다른 문제가 발생하고 또 새로운 기술을 찾고 개발한다. 창과 방패처럼 계속 돌고 도는 관계다.

지금처럼 막대한 인프라와 자원을 써서 AI 개발을 가속화하는 것은 분명 문제가 있다. 전 세계적으로 탄소중립 같은 가치를 내세우면서 한편으로는 AI 개발에 자원을 쏟아붓는 건 모순적이기도 하다. 하지만 이 문제가 영원하지는 않을 것이다. 곧 보다 자원을 적게 쓰면서 비슷한 성능을, 혹은 더 뛰어난 성능을 낼 수 있는 효율적인 기술이 개발될 것으로 예상한다. 당장 어려움이 있다고 해서 고삐를 늦추자는 것에는 동의할 수 없다.

현실적인 어려움도 있다. 모두 함께 AI 기술 개발 경쟁을 일시중단하자는 것이 정말 가능할 것인가? AI 개발이 어느 한 지역이나 국가에서만 일어나는 일이라면 통제할 수 있을 것이다. 하지만 지금 AI는 전 세계적인 열풍을 일으키는 기술이다. 막으려 한다고 해서 막아질 것 같지는 않다. 현실성이 떨어지는 규제책을 찾기보다는 자연스러운 현상으로 받아들이고, 차라리 효율적인 방법을 찾기 위해 바삐 움직이는 것이 좋다고 생각한다.


Q. 미래의 AI는 어떻게 될 것인가? 혹은 어떻게 되어야 하는가?
몇 년 전까지는 자율주행차와 관련된 기술들이 빠르게 발전하고 있었는데 요즘에는 성과가 점점 더 더디게 나오는 것처럼 보인다. 자율주행을 4단계로 구분한다면 지금 3단계에 머무른지가 꽤 오래 됐다. 성장곡선이 완만해지고 있다. 어떤 사람들은 이렇게 성장곡선이 완만해지다가 결국 완전한 자율주행차에는 도달하지 못할 것이라고 얘기하는데, 거기에 일부 동의한다.

자율주행의 기술 발전이 다음 단계로 나아가지 못하는 것은 AI에 의한 완전한 자율주행을 목표로 하기 때문이다. 도로 위에서 어떤 상황이 일어나더라도 AI가 모든 것들을 완벽하게 통제할 수 있어야 하는데, 데이터를 통계학으로 학습한 AI로는 쉽지 않은 일이다. 이것을 해결하기 위해서는 결국 완전한 자율주행을 포기하고, 인간과 AI가 함께하는 모델로 발전해야 한다. 자율주행 기능의 도움을 받아 운전이 편해질 수는 있겠지만, 돌발상황에 대처하는 데에는 AI보다 인간이 훨씬 뛰어나다.

이것은 챗GPT나 생성형 AI 모델을 포함해 대다수 AI 기반 기술들에 공통적으로 적용되는 것이다. 인간의 도움 없이 AI에 의한 완전한 자동화를 목표로 한다면 초기에는 성장곡선이 가팔랐지만 어느 순간 멈춰버린 자율주행차처럼 될 것이다. 그러므로 AI와 인간을 완전히 분리하기보다는, 인간이 AI라는 도구의 칼자루를 쥐고 적극 개입하는 방향으로 나아가야 한다.

올해 개봉한 메간이라는 영화를 보면 자율성이 높은 AI 로봇이 잘못된 학습을 함으로써 얼마나 엇나갈 수 있는지를 보여준다. 이것은 AI의 윤리성에 대한 문제로 볼 수도 있고, 인간과 AI의 관계에 대한 화두를 던지는 것으로도 생각할 수 있다. 누가 뭐라고 해도 결국 인간은 AI 기술을 포기하지 않을테니 앞으로 우리는 AI와 함께 살아가야 한다. 그러면 우리는 어떤 AI와 함께 하고 싶은지를 고민해야 한다. 돌발상황에 대비해 칼자루를 인간이 쥐고 효율적인 도구로만 사용할 것인지, 다소 위험이 있더라도 메간처럼 높은 자율성을 가진 고도화된 AI를 만들 것인지. 이러한 여러 가지 문제에 답을 내리기 위해서는 먼저 우리 인간들끼리의 소통이 가장 중요하다고 생각한다.

저작권자 © 아이티데일리 무단전재 및 재배포 금지