“현 AI 기술로는 범용 인공지능(AGI) 못 만든다” 지적도 다수
AGI로 진행하기 전 ‘완전한 통제’ 및 ‘안전성 확보’가 우선

범용인공지능(AGI) 개발에 대한 찬반 논쟁이 뜨겁게 벌어지고 있다. 이미지=엔비디아
범용인공지능(AGI) 개발에 대한 찬반 논쟁이 뜨겁게 벌어지고 있다. 이미지=엔비디아

[아이티데일리] 현재 AI 붐을 주도하는 접근 방식과 기술만으로는 인간 수준의 추론을 할 수 있는 인공지능(AI) 시스템, 즉 범용 인공지능(AGI, Artificial General Intelligence)을 개발하기 어려울 것이라는 조사 결과가 나왔다.

“AGI가 AI의 궁극적인 목표가 되어서는 안 된다”는 주장을 담은 이 조사는 AI 분야에서 일하는 수백 명의 전문가들을 대상으로 인공지능진흥협회(AAAI)가 주도해 진행했다. 조사 결과는 AAAI 홈페이지 및 네이처 온라인판 에 게재됐다.

게시글에 따르면 응답자의 4분의 3 이상이 최근 몇 년간 AI 성능 향상에 크게 기여한 기존 AI 시스템을 확장하는 방식만으로는 AGI로 이어질 가능성이 매우 낮다고 답했다. 또한, 생성형 AI의 핵심 기술인 신경망(neural network)만으로는 인간의 지능과 맞먹거나 능가하는 것이 거의 불가능하다고 답한 비율은 더욱 높았다.

AGI 연구의 필요성 자체에 대한 회의적인 시각도 존재했다. AI 연구 커뮤니티의 핵심 목표가 AGI 달성이 되어야 한다고 답한 응답자는 4분의 1도 되지 않았다.

뉴욕 요크타운 하이츠에 위치한 IBM의 AI 연구원이자 워싱턴 DC에 본부를 둔 '인공지능진흥협회(AAAI, Association for the Advancement of Artificial Intelligence)'의 회장으로서 이번 조사를 주도한 프란체스카 로시(Francesca Rossi)는 "AI의 미래를 인간 수준의 지능을 갖추는 것을 목표로 삼는 것이 과연 올바른 방향인지 모르겠다"라며 "AI는 인간을 대체하는 것이 아니라, 인간의 성장과 학습, 발전을 돕는 역할을 해야 한다"라고 강조했다.

이번 조사 결과는 최근 펜실베이니아주 필라델피아에서 열린 AAAI 연례 회의에서 공식 발표됐다. 연구 분석을 위한 설문 및 인터뷰 응답자는 475명 이상이었으며, 이 중 67%가 학계 연구자들이다.

◆ 범용적인 지능

챗봇이나 이미지 생성기와 같은 도구의 기반이 되는 생성형 AI 시스템은 인간의 뇌에서 영감을 받아 대량의 데이터를 신경망에 기반해 학습하는 방식으로 작동한다. 지난 10년간 개발자들은 AI 성능을 향상시키기 위해 모델의 크기를 확장하는 전략을 사용해 엄청난 성과를 거두었다. 예를 들어, 훈련 데이터의 양을 늘리거나 AI가 학습 중에 조정하는 ‘매개변수(파라미터, parameters)’의 수를 증가시키는 방식이다.

그러나 응답자의 84%는 신경망만으로는 AGI를 달성할 수 없다고 답했다. 보고서는 AGI를 “모든 인지 작업에서 인간의 능력과 동등하거나 이를 초월할 수 있는 시스템”으로 정의하지만, 연구자들은 AGI의 달성 여부를 판단할 명확한 기준을 아직 마련하지 못했다.

보고서는 신경망 외에도 연구할 가치가 있는 다양한 AI 접근 방식이 존재한다고 강조하며, 이들에 대한 적극적인 지원이 필요하다고 주장한다. 이러한 접근 방식 중 하나로 ‘심볼릭 AI’가 있다. 이는 ‘고전적 AI(good old-fashioned AI)’라고도 불리며, AI 시스템에 논리적 규칙을 직접 코딩하는 방식으로, 대량의 데이터 분석에 의존하는 신경망 방식과는 차이가 있다. 응답자의 60% 이상이 인간 수준의 추론을 실현하려면 신경망 기반 AI에 심볼릭 AI를 상당 부분 결합해야 한다고 답했다.

로시는 “신경망 기반 접근 방식은 앞으로도 중요한 역할을 하겠지만, 올바른 방향으로 발전하기 위해서는 다른 기술들과 결합할 필요가 있다”라고 말했다.

◆ AGI 개발에 대한 우려

설문 조사는 AGI 개발에 대한 우려도 보여준다. 응답자의 75% 이상이 ‘허용 가능 범위의 위험과 이익’을 가진 AI 시스템을 개발하는 것이 우선순위 면에서 AGI 달성보다 더 높아야 한다고 답했다. AGI 달성이 AI 연구의 최우선 목표가 되어야 한다고 답한 비율은 23%에 불과했다.

또한, 약 30%의 응답자는 AGI 연구 및 개발을 일시적으로 중단해야 한다고 답했다. 즉, AI 시스템을 완전히 통제하고 안전성을 확보할 방법이 마련될 때까지 AGI 개발을 보류해야 한다는 입장이다. 이를 과장하면, 아놀드 슈바제네거가 주연한 영화 터미네이터 시리즈의 ‘인류 파멸’을 염두에 둔 우려일 것이다.

그러나 연구자들 사이에서 AGI 개발 중단에 대한 반대 의견도 많았다. 일부 연구자들은 개발을 중단하도록 규제하는 것이 현실적으로 어렵다고 지적했다. 영국 리즈대학교의 AI 연구원이자 AAAI 회원인 앤서니 콘 박사는 “설령 연구 기관들이 AGI 연구 자금 지원을 중단하더라도, 기업들은 여전히 개발을 계속할 것”이라며 “이러한 조치를 실행하는 것은 비현실적”이라고 말했다. 그는 또 “AGI가 많은 사람들이 생각하는 것만큼 가까이 다가오지 않았다”며, 연구자들이 AI 안전 조치를 마련할 충분한 시간이 있다고 덧붙였다.

◆ 윤리적인 AI 에이전트

현재 대부분의 AI 기업들은 에이전트 개발에 집중하고 있다. 이는 복잡한 개방형 요청을 처리하며, 휴가를 예약하거나 코드를 작성하고 구현하는 등의 특정 작업을 수행하는 AI 시스템을 의미한다. 그러나 AI 모델의 에이전트화가 가져올 복잡성과 연산 비용(즉, 높은 에너지 소비)이 실제로 그만한 가치가 있는지에 대한 논란은 존재한다.

AI 에이전트는 또한 새로운 보안 위험을 초래할 수도 있다. 보고서 작성에 참여한 코넬대학교의 컴퓨터 과학자인 바트 셀만 교수는 AI 에이전트를 사용하며 경험한 보안 문제를 언급했는데, 그는 개인 노트북에서 수학 문제 해결과 코딩을 돕는 AI 에이전트를 사용하고 있지만, 이 에이전트가 정확히 어떤 작업을 수행하는지 완전히 파악하지 못한다고 인정했다. 그는 “예를 들어, AI 에이전트가 내 아마존 클라우드 로그인 정보를 찾아내고 나 모르게 로그인해 실험을 실행하고, 결국 내 돈을 쓸 수 있다는 위험이 있다”고 했다.

이는 AI 에이전트가 사용자의 의도와는 다르게 작동할 위험성을 보여주는 사례로, 연구자들은 이러한 보안 문제를 해결하기 위한 대책 마련이 필요하다고 강조하고 있다.

설문 조사의 일부 질문은 '추론'이 무엇인지에 대한 확실한 정의가 없다는 점을 비롯해 이 분야에 지속적인 불확실성이 있음을 강조했다. 설문 조사에서 "인간이 개입되지 않는 완전 자율 AI 과학자가 노벨상을 받을 만한 획기적 업적을 이룰 것으로 생각하는 시기는 언제인가?"라는 질문에 가장 많았던 답변은 "모르겠다"였다.

저작권자 © 아이티데일리 무단전재 및 재배포 금지