이미지=픽사베이
이미지=픽사베이

[아이티데일리] 오픈AI가 챗GPT를 발표한 2022년 12월 이후 AI는 혁명에 가까울 정도의 발전 속도를 보이고 있다. 이제 AI 에이전트를 넘어 AGI(범용 인공지능) 개발이 본격적으로 시작되고 있다. 개발이 진행되면 휴머노이드 로봇 등을 통해 실생활로 파고들 것이다. 그런데, AI 연구계를 중심으로 벌써부터 AGI를 넘어서서 ASI((Artificial Superintelligence, 인공지능 초지능) 논의가 활발하다. 인간의 지능을 넘어서는 초지능이다.

인류는 수천 년간 지능을 진화시켜 왔다. 교육, 과학, 문명은 인간 사고의 경계를 넓혀왔다. 그런데 최근의 AI의 발전과 함께 ‘인간 지능은 어디까지 발전할 수 있는가?’라는 근본적인 질문이 던져졌다.

‘지능 상한선 가설(human ceiling hypothesis)’은 인간의 지능이 어떤 절대적인 한계에 도달할 수밖에 없다는 가정을 의미한다. 우주의 끝은 어디인가라는 질문처럼 막연하지만, 인간 지능이 유한한 것인지, 아니면 무한히 확장할 수 있는 것인지를 뭍는다. 상한이 존재한다면 인류는 그 한계에 도달하면서 진보를 멈추게 된다. 반대로 한계가 없다면, 인간은 계속해서 진화하며 지속적으로 발전할 수 있다. 이는 AI가 과연 인간의 지능을 넘을 수 있는지에 대한 논쟁의 출발점이 된다.

현재의 AI는 에이전틱 AI가 보여주듯이 대부분 ‘좁은 개념 혹은 특정 분야의 AI’이다. 번역기, 챗봇, 자율주행 등 특정 작업에 맞추어져 있다. 물론 활용 범위가 점차 확대되고 있는 것은 사실이다. 여기에서 AGI 개념이 나왔고, 개발도 진행되고 있다. AGI 연구진의 궁극적 목표는 인간처럼 다양한 지적 과제를 유연하게 처리할 수 있는 AI를 만드는 것이다.

GPT-4, 클로드 3, 제미나이 등 최신의 차세대 대규모언어모델(LLM)은 인간 전문가 수준의 작문・코딩・추론 능력을 보여주고 있다. 하지만 ‘인간과 동등한 범용성’을 갖췄다고 보기는 이르다.

그러나 AGI가 실현된다면 현재는 논의 단계에 머물러 있는 ASI로 진입하는 첫 출입문이 될 수 있다는 점에서 중요하다. AGI는 인간과 같지만, ASI는 인간을 능가한다.

고전 블록버스터인 터미네이터 시리즈는 ASI로 인한 인류의 파멸을 이야기한다. 이 영화에서 인류를 파괴하는 AI는 ASI와 다르지 않다. 시간 이동 등 몇 가지 이해 불가능한 시나리오를 제외한다면 ASI는 수십 년 전부터 이미 SF로 그려졌다.

2004년에 만들어진 영화 아이로봇도 마찬가지다. 여기에 등장하는 대다수 휴머노이드 로봇은 AGI 버전이다. 인간 생활에 편의를 제공하는 긍정적인 측면에서 작동한다. 그러나 주인공으로 등장하는 또 다른 로봇 ‘써니’는 인간처럼, 또는 인간 이상으로 생각하고 판단한다. 그리고 인간을 지배하려는 중앙 AI 컴퓨터 ‘비키’와 대립해 인간을 돕는다. 써니와 비키는 (인간 관점에서) 선과 악으로 나뉘는 ASI 버전이다.

ASI는 인간의 지능을 초월하는 존재로 묘사된다. 창의성, 분석력, 판단력, 학습 능력 등 전 영역에서 인간을 앞선다는 의미다.

지난 4월, 구글 딥마인드는 AI의 안전에 관한 보고서에서 “AI는 인간의 지능에 도달한 이후에도 발전을 멈추지 않을 것이다. 이미 일부 작업에서는 인간을 초월한 성과가 나타나고 있다”고 밝혔다.

전문가들은 AI가 인간 지능을 초월할 수 있는 이유를 ▲규모의 차이 ▲성질의 차이 등 두 가지 제시한다. 규모의 차이는 인간 뇌는 두개골이라는 물리적 한계를 가지지만, AI는 서버를 무한대로 늘릴 수 있기 때문에 지능을 확장할 수 있다. 또 성질의 차이 측면에서 인간은 생물학적 과정에 기반하지만, AI는 알고리즘와 하드웨어 기반으로 더 유연한 구조를 가진다는 것이다. 기술적으로 ASI는 아직 존재하지 않지만, 가능성 면에서는 더 이상 SF가 아니라는 뜻이다.

문제는 ASI가 등장할 경우 이를 효과적으로 통제할 수 있는가에 있다. 초지능의 위협은 단순한 기술 문제가 아니며, 이는 윤리・정치・철학이 맞물린 통제 불가능성의 문제다. AI의 판단이 인간과 다를 경우 이를 어떻게 조정하고 관리할 것인가는 중요한 문제가 된다.

AI 개발사들은 ‘AI 정렬 문제(alignment)’에 대한 연구도 이어가고 있다. AI의 목표를 인간의 가치와 부합하도록 만든다는 것이다. 그러나 초지능이 스스로를 개선할 수 있는 능력을 갖춘다면, 통제는 근본적으로 어려워질 수 있다. 기후 변화가 한계를 넘어서면 인류는 멸망하고 ASI 로봇이 차세대 지구 지배종이 될 것이라는 우스갯소리도 나오는 상황이다.

AI가 AGI에 도달하고 다시 ASI로 발전한다면, 인류는 존재 자체를 재정의해야 할 수도 있다. 인간 중심의 세상이 기술 중심의 세상으로 전환될 수 있기 때문이다.

저작권자 © 아이티데일리 무단전재 및 재배포 금지