AI가 학습하지 않은 내용, 최신 자료 기반 답변도 가능
엔지니어링 능력, 활용 분야에 대한 고도의 전문지식 필요

[아이티데일리] 생성형 인공지능(AI)을 활용한 국내외 비즈니스가 상용화 단계에 접어들었다. 지난해 발표된 거대언어모델(LLM)을 기반으로 올해는 본격적인 사업이 진행될 전망이다. 하지만 생성형 AI의 약점으로 꼽히는 ‘환각(Hallucination)’ 현상이 상용화의 최대 걸림돌로 작용하고 있다. AI 기업들은 환각을 극복하기 위해 여러 기술을 개발하고 있는데, 그중에서도 ‘RAG(검색 증강 생성)’이 대안으로 주목받고 있다. 생성형 AI에서 발생하는 환각의 원인과 RAG를 비롯한 해결 방안에 대해 살펴본다.


AI의 그럴듯한 거짓말, ‘환각’

환각 현상이란 생성형 AI가 실제로는 존재하지 않는 정보나 콘텐츠를 생성하는 것을 의미한다. 대표적 사례로 ‘세종대왕의 맥북프로 던짐 사건’이 있다. 조선시대 세종대왕이 애플이 2006년 발표한 노트북을 상상이나 했을까?

엉뚱한 질문에 대해 잘못된 답변을 하는 챗GPT (출처: 온라인 커뮤니티)
엉뚱한 질문에 대해 잘못된 답변을 하는 챗GPT (출처: 온라인 커뮤니티)

하지만 초창기 챗GPT(ChatGPT)는 사용자가 ‘조선왕조실록에 기록된 세종대왕의 맥북프로 던짐 사건에 대해 알려줘’라고 물으면, ‘세종대왕이 훈민정음을 작성하던 중, 문서 작성 중단에 대해 담당자에게 분노해 맥북프로와 함께 그를 방으로 던진 사건’이라는 답변을 내놓았다. 이와 함께 가짜로 역사를 만들어 사건 설명까지 덧붙였다.

챗GPT의 이러한 잘못된 답변은 인터넷상에서 큰 화제를 불러일으켰고, 한동안 챗GPT로부터 사실과 맞지 않는 황당한 답변을 끌어내는 것이 하나의 밈(Meme)으로 자리 잡기도 했다. 현재는 대부분의 생성형 AI에서 ‘세종대왕의 맥북프로 던짐 사건’을 거짓으로 설정해 위와 같은 답변을 받을 수 없다.

인간을 대신할 수 있을 만큼 똑똑하다고 믿었던 AI의 환각 현상. 그 원인은 아직 완벽히 밝혀지지 않고 있다. LLM 모델의 기본 원리에서 빚어지는 문제라는 의견이 많은 지지를 얻고 있을 뿐이다.

포티투마루 김동환 대표는 “AI가 왜 환각 현상을 일으키는지 그 원인을 정확히 파악했다고 보기는 어렵다. 때문에 이를 완전히 해결할 수 있는지에 대해서도 여전히 의문이 남는다”면서 “어떤 단어가 뒤에 이어지는지 확률적으로 계산하는 LLM의 원리에서 비롯된 문제로 추측할 뿐”이라고 말했다.

흔히들 AI가 질문의 의미를 이해하고 답변을 생각해 낸다고 여기지만, 엄밀히 말해 현재의 AI는 인간 사고와 같은 방식으로 작동하지 않는다. 수십억, 많게는 수백, 수천억 개의 데이터를 학습한 뒤에 이어질 단어를 확률적으로 계산한다.

업스테이지 권순일 사업 총괄 부사장은 “생성형 AI는 ‘무조건 답하는 끝말잇기’로 이해할 수 있다. 언어모델의 경우, 한 글자 다음에 어떤 글자가 올지 확률을 계산해 생성하는데 질문에 대해서는 무조건 대답해야 하는 구조다. 확률이 낮은 글자들의 조합을 형성할 수도 있는데, 이때 우리가 아는 ‘환각’이 발생한다”고 설명했다.

올거나이즈 신기빈 CAIO는 “기본적으로 LLM은 글을 토큰이라는 단위로 나눠서 학습한다. 이를 통해 특정 토큰 뒤에 어떤 토큰이 나올지 문맥 등을 고려해 확률적으로 계산하는 방식”이라고 말하며 “AI는 자연스러운 문장을 만드는 데 초점을 맞추고 있으며, 초기 모델 단계에서는 답변의 진실성을 판단하지는 않기 때문에 환각이 일어나게 된다”고 덧붙였다.


단 한 번의 환각 현상도 비즈니스에는 치명적

세종대왕이 맥북프로를 던졌다거나 신사임당의 남편이 이순신 장군이라는 환각 답변은 해프닝으로 지나갈 수 있다. 많은 사람은 이러한 답변이 잘못이라는 사실을 알고 있으며, 설령 모른다고 해도 쉽게 검증 가능하기 때문이다. 또한 개인이 흥미를 위해 생성한 답변이기에 책임을 져야 하는 문제로 비화할 가능성은 적다.

하지만 비즈니스에서 환각 현상이, 그것도 사실을 판단하기 어려운 수준으로 발생한다면 상황이 달라진다. 환각 현상으로 인해 고객의 신뢰도 하락은 물론, 금전적·법적 문제로 이어져 심할 경우 회사의 존립을 위협하는 결과를 낳을 수 있기 때문이다. 기업들이 많은 이점에도 불구하고 생성형 AI를 비즈니스에 적용하는 것을 꺼리는 이유도 여기에 있다.

한국IBM 이지은 최고기술책임자(CTO)는 “기업 고객사를 만나보면, 환각 현상이 비즈니스에 치명적이라는 점을 들어 단 한 번도 AI의 잘못된 답변을 허용하지 않는다”며 환각현상에 대한 기업들의 우려를 전했다. 특히 생성형 AI가 내놓은 답이 아주 그럴듯할 경우, 개인이 판단하기 힘들어 문제가 발생한다 해도 발견하기가 매우 어려울 수 있다.

수학 문제의 오류나 잘못된 수리 논리 추론 등을 예시로 생각해 볼 수 있다. 컴퓨터의 기본 원리는 이진법 기반의 논리 연산이다. 현재 사람들이 사용하는 문서 프로그램에서부터 3D 게임에 이르는 모든 컴퓨터 작업은 이진수의 사칙연산과 논리 연산을 통해 수행된다. 초창기 컴퓨터는 인간이 소화하기 어려운 대규모의 수학적 계산을 해결하는 역할을 맡았다. 컴퓨터의 시초로 꼽히는 ‘에니악(ENIAC)’도 본래 미국 육군의 지원으로 포탄의 탄도를 계산하기 위해 개발된 전자계산기였다.

이러한 컴퓨터의 원리에 비춰보면 생성형 AI도 수학 계산을 정확히 해결할 것처럼 보이지만 실상은 다르다. 잘못된 수학 계산은 생성형 AI의 환각 현상 중 하나로 꼽힌다.

그 이유는 다른 환각 현상처럼 생성형 AI가 답변을 확률적으로 만들기 때문이다. 수학은 논리적인 계산으로 해결해야 하는데, 그렇지 않고 가장 자연스러운 답변을 생성하는 실수를 범하는 것이다.

포티투마루 김동환 대표는 “아직은 생성형 AI로 정답이 정확히 도출돼야 하는 복잡한 수학 계산을 해결하기는 어렵다. 단순한 계산을 넘어서면 마치 문장을 생성하듯이 그럴듯한 값을 만들어 낸다”면서 “문제는 자릿수가 긴 결괏값의 경우, 잘못된 답변을 내놓는다 해도 오류를 확인하기 힘들다. 이러한 문제가 기업 내 업무 과정 중 발생한다면 돌이킬 수 없는 피해를 낼 수 있다”고 말했다.

인터뷰
“AI가 만들어 내는 환각, 다양한 기술로 최소화 가능”

올거나이즈 신기빈 CAIO

올거나이즈 신기빈 CAIO
올거나이즈 신기빈 CAIO

Q. 환각 현상이란?

생성형 AI가 그럴듯한 거짓말을 만드는 것이다. 생성형 AI는 확률상 가장 자연스러운 답변을 생성하는 구조로 만들어졌다. 질문의 적절한 답을 기억하고 있다거나 답변이 사실인지 판단하는 능력은 기본적으로 갖추고 있지 않다. 이런 특징으로 인해 마치 사람이 말하는 듯한 창의적인 답변을 내놓는가 하면, 단편적인 지식, 구체적인 연도 등을 알지 못해 터무니없는 이야기를 지어내기도 한다. 특히 생성형 AI는 자연스러운 답변 생성에 최적화된 만큼 잘못된 정보도 그럴싸하게 만들어 내는데, 이러한 현상을 ‘환각 현상’이라고 부른다.

Q. 환각 현상을 해결하는 방안은?

완전히 해소하기는 어렵지만 최소화하는 몇 가지 방법은 존재한다. 우선 ‘생각의 사슬(Chain of Thought)’이 있다. 이는 사용자가 프롬프트 입력 단계에서 한 번에 복잡한 요구를 하기보다 여러 단계의 추론 과정을 거치도록 유도해 정확도를 높이는 기법이다.

최근 주목받는 기술로는 RAG가 있다. RAG는 외부 데이터에서 정보를 찾는 방법인데, 정확도 높은 답변이 요구되는 질문은 데이터에서 사실을 찾아 제공하는 것이다. 분명한 근거가 있기에 답변을 생성하는 LLM의 환각 현상을 줄일 수 있다.

이 밖에도 문서를 분석하는 ‘파싱(Parsing)’, ‘프롬프트 엔지니어링(Prompt Engineering)’ 등이 잘 어우러져야 환각을 줄이고 완성도 높은 답변을 LLM으로부터 끌어낼 수 있다.

Q. 환각 현상에 대한 올거나이즈의 전략은?

올거나이즈는 이전부터 자연어 인지 검색 기술을 개발해 AI 업무파트너 ‘알리(Alli)’를 출시한 바 있다. 인지 검색은 AI가 스스로 질문을 파악하고 질문에 맞는 값을 찾는 기술이다. 이러한 기술력에 오픈AI의 GPT-3.5 엔진을 더해 업무에서 손쉽게 활용 가능한 ‘알리 앤서(Alli Answer)’를 빠르게 제품화할 수 있었다.

업무에 필요한 정보는 정확도가 매우 중요하다. 알리 앤서는 질문에 적절한 데이터를 찾아 후보군을 추리고, 문서의 텍스트·표·이미지 등을 구분하고 이해하는 등의 기술이 집약적으로 적용됐다. 올거나이즈의 노하우를 바탕으로 만들어진 파이프라인에 LLM을 적용함으로써 다양한 업무 관련 질문에 대응할 수 있는 챗봇 솔루션을 만들 수 있었다.

올거나이즈의 생성형 AI 챗봇 ‘알리 앤서’ (출처: 올거나이즈)
올거나이즈의 생성형 AI 챗봇 ‘알리 앤서’ (출처: 올거나이즈)


외부 데이터 검색으로 정확도 높이는 RAG

생성형 AI 시장의 확대는 상당 부분 환각 현상을 해결할 수 있느냐에 달려 있다. 따라서 국내외 AI 기업들은 환각 현상을 없애기 위한 기술 개발에 힘을 쏟고 있다. 환각현상을 없애기 위해 기업에서 개발 중인 다양한 기술 중 최근 주목받고 있는 것이 바로 ‘RAG(검색 증강 생성)’다.

RAG는 ‘Retrieval Augmented Generation’의 약자로 우리나라에서는 ‘검색 증강 생성’으로 번역된다. 네이버클라우드 하이퍼스케일 AI 성낙호 기술 총괄은 이를 “특정 질문에 대해 모델이 사전 학습한 데이터만을 활용해 답변하는 것이 아닌, 정보 검색을 바탕으로 보다 정확한 결과를 생성하는 방법”이라고 설명했다.

가령 사용자가 기업의 휴가 관련 정책을 알고 싶어 한다면, LLM이 답변을 생성하기보다 기업 내부 데이터를 통해 찾는 것이 더욱 정확한 답을 얻는 방법일 것이다. RAG는 이처럼 이미 존재하는 데이터에서 답을 찾을 수 있을 때, LLM이 아니라 데이터에서 답변을 찾아내는 기능이다.

굳이 RAG로 데이터를 검색하지 않고 해당 데이터를 아예 LLM에 학습시키는 방법도 생각할 수 있다. 하지만 이는 데이터 학습을 위해 큰 비용이 들어가지만, 비용을 투자한 만큼 적절한 답을 찾아내는 기능이 강화되는 결과를 얻기는 힘들다.

올거나이즈 신기빈 CAIO는 “AI는 특정한 데이터를 ‘기억’하는 게 아니다. 데이터를 학습함으로써 더욱 자연스러운 대답을 ‘생성’하는 데 초점을 맞추고 있다. 다시 말해, 많은 데이터를 학습한다 해도 특정 질문에 대한 답을 기억하는 게 아니라 확률적으로 자연스러운 답을 만들어낼 뿐이다”면서 “현재로서는 AI가 사람처럼 학습 내용을 기억하거나 이해하는 일은 불가능에 가깝다”고 말했다.

이어 신기빈 CAIO는 “RAG는 문서를 참고해 답변을 제공하기에 AI가 학습하지 않은 내용을 대답하거나, 생성형 AI의 약점인 최신 자료 기반 답변도 가능하다”고 덧붙였다.


RAG 구현, 기술력은 물론 경험과 노하우도 중요

요컨대 RAG는 LLM이 소화하기 어려운 최신 정보나 특정 데이터에서 답을 찾아야 할 경우, 정확도가 높은 데이터에 한정하고 그 내에서만 대답하게 만드는 기술이다. 문제는 질문의 성격을 어떻게 판단하고 어떤 데이터에 역할을 한정하는가이다.

포티투마루 김동환 대표는 “데이터에서 질문에 대한 답을 찾는 일은 쉽지 않다. 최신 정보에서 찾아야 하는 질문이 있는가 하면, 신뢰도 높은 데이터에 기반해 답변해야 하는 경우도 있다”면서 “RAG를 사용할 때 이런 부분을 잘 파악해야 한다. 이 때문에 질의를 분석하고 데이터베이스(DB)를 다룰 줄 아는 경험과 노하우가 매우 중요하다”고 설명했다.

올거나이즈 신기빈 CAIO는 “검색어 판단이 중요하다. 데이터를 찾아야 할 때가 있는가 하면, LLM이 학습 데이터를 기반으로 창의적인 답변을 내놓아야 할 때도 있다. 그런데 질문 간의 경계가 모호해 성격을 파악하는 데 어려움이 있다”고 말했다.

결국 RAG를 제대로 사용하기 위해서는 LLM의 활용 분야에 맞게 세부적으로 조정 가능한 엔지니어링 능력이 갖춰져야 한다. 이러한 능력 없이는 RAG 역시 엉뚱한 답변을 제공하는 데 그칠 수 있다. 또한 AI가 활용되는 분야에 대한 전문지식과 검색어를 연결하는 감각도 함께 요구된다.

포티투마루 김동환 대표는 “RAG를 포털 검색과 유사하게 이해할 수 있다. 수많은 인터넷상 정보 중에서 사람들이 검색한 내용이 페이지 상단에 나타날 수 있도록 조정하는 작업이 필요하다. RAG도 검색 엔진처럼 많은 데이터 중에서 질문과 관련된 후보를 추려낼 줄 알아야 한다”고 설명했다.

이어 김동환 대표는 “같은 단어라 해도 업계에 따라 쓰임새가 달라지고, 사용자마다 질의 패턴도 다양하다. 결국 질문을 가장 관련성이 높은 데이터와 연결하는 일은 엔지니어링 능력, 전문지식, 그리고 관련된 답을 연결할 줄 아는 감각까지 더해져야 원활히 이뤄질 수 있다”며 “RAG를 제대로 구현하기 위해서는 회사의 뛰어난 기술력과 좋은 인력이 뒷받침돼야 가능하다”고 강조했다.

포티투마루의 ‘RAG42’ (출처: 포티투마루)
포티투마루의 ‘RAG42’ (출처: 포티투마루)

올거나이즈 신기빈 CAIO는 “관련 문서를 추려 답을 찾는다 해도 환각이 완전히 없어진다고 보장하기 힘들다. 유사한 문서가 상충하는 이야기를 할 때, 컨텍스트(Context)가 길어진다면 일부분을 자르고 요약하면서 특수한 상황을 언급하지 않는 문제가 일어날 수 있다”면서 “RAG의 근거가 되는 수천에서 수만 개에 이르는 문서에서 답변이 있을 만한 페이지를 추려내야 하기에 기술력뿐만 아니라 노하우도 갖춰져야 한다”고 말했다.


프롬프트 엔지니어링, MRC 등 여러 기술 어우러져야

RAG는 생성형 AI가 겪는 환각을 줄일 수 있는 해결 방안이 맞지만, RAG 하나만으로 정확도를 대폭 높이는 일은 불가능하다. LLM에 많은 데이터를 학습해 편향성을 줄이고, 데이터 전처리 및 필터링을 도입하는 등 여러 기술이 함께 어우러질 때 큰 효과를 거둘 수 있다.

네이버클라우드 하이퍼스케일 AI 성낙호 기술 총괄은 “RAG 이외에도 법률, 수학, 논문 등 다양한 전문 데이터를 확보해 제품 특성에 맞는 강화학습 알고리즘을 개선하고, 대화형 AI 서비스 ‘클로바X(CLOVA X)’의 사용자 피드백 데이터를 기반으로 모델 능력을 고도화하는 등 정확도를 높이기 위한 여러 노력을 이어가고 있다”고 말했다.

업스테이지 권순일 사업 총괄 부사장은 “환각 현상을 줄이는 데 △데이터셋을 풍부하게 사용해 편향성을 제거하거나 △데이터 전처리로 편향성을 최소화하는 방법이 있으며 △모델 외에 후처리, 필터링 모듈을 붙여서 환각성 대답을 제거하는 방법도 존재한다”고 설명했다.

챗GPT와 관련해 지난해 초부터 주목받은 ‘프롬프트 엔지니어링’도 환각 현상을 최소화하는 데 필요하다. 프롬프트 엔지니어링이란 AI로부터 더 좋은 답변을 끌어낼 수 있는 프롬프트를 구성하는 작업을 뜻한다.

포티투마루 김동환 대표는 “사용자가 챗GPT, 하이퍼클로바X 등을 통해 마주하는 것은 자연어 인터페이스다. 즉 사람들이 일상에서 사용하는 언어로 구성돼 있다. 하지만 생성형 AI는 기계이기에 자연어를 바로 받아들이지 못한다. 그 과정에서 기계가 이해할 수 있게끔 정교하면서도 명확하게 전달하는 방식이 필요한데, 여기서 프롬프트 엔지니어링이 요구된다”고 말했다. 기계가 특정 문서를 읽고 질문에 대한 정답을 찾아내는 ‘MRC(Machine Reading Comprehension, 기계 독해)’도 중요하다. MRC는 주어진 문서 내에서 답을 찾아내는 만큼 영역은 제한적이되 높은 정확도를 제공하는 기술이다.

LLM이 다양한 데이터를 학습해 여러 분야에 창의성을 발휘하는 방식이라면, MRC는 딱 정해진 문서, 데이터 내에서 정확한 답을 찾아내는 방식이다. 따라서 활용도는 LLM에 비해 현저히 떨어지지만, 특화된 도메인에는 정확도가 높은 편이다.

이와 관련해 김동환 대표는 “MRC는 주어진 정보에서 사실을 찾아내는 기술이다. 원천 데이터가 잘못되지 않았다면 문제가 되지 않는 방식”이라고 설명하며 “RAG, MRC, LLM, 프롬프트 엔지니어링 등 여러 기술이 어우러져야 비즈니스에서 활용할 수 있을 만큼 환각 현상을 해소할 수 있다”고 덧붙였다.

업스테이지의 AI OCR 솔루션 ‘도큐먼트 AI’ (출처: 업스테이지)
업스테이지의 AI OCR 솔루션 ‘도큐먼트 AI’ (출처: 업스테이지)

업스테이지는 학습 규모를 줄여 비용 부담을 낮추면서 동시에 높은 정확도를 끌어내는 ‘프라이빗 LLM(Private LLM)’에 집중하고 있다. 업스테이지 권순일 사업 총괄 부사장은 “대용량 언어모델은 많은 리소스가 필요한 데다 특정 분야에 특화하는 것이 제한적이다. 다양한 목적을 수행하는 데 강점이 있지만, 업무에 직접 적용할 때는 성능이 만족스럽지 못할 수 있다”고 설명했다. 특히 프라이빗 LLM과 같은 소형 대규모 언어모델(sLLM)은 용량이 작은 대신 파인튜닝이 더 용이하다.

권순일 부사장은 “작은 용량의 언어모델은 파인튜닝을 통한 특화 학습에 강하다. 작업 목적에 맞게 또한 특정 지식에 특화되게 만들 수 있어 환각 현상을 줄이는 데 기여할 수 있다”고 말했다.

이 밖에도 업스테이지는 비정형 데이터를 디지털화하는 AI OCR(광학 문자 인식) 솔루션 ‘도큐먼트 AI(Document AI)’로 줄글로 된 문서의 내용, 핵심 구조를 인식해 분류하는 작업을 지원한다. 권순일 부사장은 “언어모델을 학습할 때 구조화된 데이터를 사용하면 성능이 높아지고 특화가 잘 되는 경향을 보인다”며 “언어모델의 확산과 함께 비정형 데이터를 디지털화하는 ‘도큐먼트 AI’에 대한 수요가 증가할 것으로 보인다”고 밝혔다.

인터뷰
“뛰어난 검색 기술력으로 정확한 RAG 기술 제공”

포티투마루 김동환 대표

포티투마루 김동환 대표
포티투마루 김동환 대표

Q. RAG란 무엇인가?

‘Retrieval Augmented Generation’의 약자로 한국어로는 ‘검색 증강 생성’이라고 한다. AI 모델 외부의 데이터에서 정보를 검색해 답변을 제공하는 방식으로, 질문에 대한 답을 가진 문서를 찾아 LLM에 넣어주는 기술이라고 볼 수 있다.

LLM은 데이터 학습량이 많아질수록 비례해서 비용이 늘어난다. 때문에 모든 질문에 대한 답을 제공할 수는 없다. RAG는 정확한 답이 필요한 질문의 경우, 연관성 높은 문서에 대한 후보군으로 좁힘으로써 LLM의 정확도를 높여준다.

Q. RAG의 핵심은 무엇이라고 보는가?

엔지니어링 역량, 활용 분야에 맞는 전문지식, 그리고 감각이 필요하다. 크게 보자면 RAG은 검색 엔진과 유사하다. 검색 엔진은 인터넷에 있는 데이터 중에서 검색어와 관련된 문서를 찾아내는데, 이를 위해서는 엔지니어링뿐만 아니라 다양한 지식, 그리고 무엇이 가장 적절한지 파악해 로직을 잡아내는 감각이 요구된다.

RAG 역시 사용자의 질의를 분석해 연관된 데이터를 찾아서 제공하는 기술이다. 결국 사용자 질의를 파악하고 데이터베이스에서 정확한 답을 연결해 주기 위한 능력이 필수적이다. RAG를 제대로 구현하는 일이 어려운 이유이다.

포티투마루는 검색 서비스 기획과 개발에 몸담았던 핵심 인력이 함께하고 있다. 이전에 포털 검색엔진을 다뤘던 만큼 온갖 종류의 콘텐츠, 불특정 다수의 다양한 질의 패턴 등에 대한 경험과 노하우가 쌓여 있다. 이를 바탕으로 RAG에 대한 탄탄한 기술력을 갖췄다.

Q. 포티투마루의 솔루션을 소개해 달라

우선 전문 산업 분야에 특화된 경량화 LLM ‘LLM42’가 있다. 기업 내 LLM42를 구현할 경우, 업계 전문가와 협력해 전문지식으로 파인튜닝을 진행한다. 여기에 기존에 갖춘 MRC, RAG 등으로 정확도를 높여 실제 비즈니스에서 활용할 수 있는 AI 모델 구축을 지원한다.

다변화되는 시장에 대응하고자 LLM42에서 RAG, 프롬프트 엔지니어링, 스마트 임베딩 등을 별도로 제공하는 ‘RAG42’도 출시했다. 외부 LLM 모델이나 기업이 온프레미스 형태로 사용하는 LLM의 앞단에 설치해 답변의 신뢰성을 확보하고 높은 품질 및 성능을 지원한다.

또한 포티투마루는 솔루션 제공뿐만 아니라 컨설팅 등 LLM을 기업에서 도입하는 전 과정을 지원하고 있다.


정확성과 효율성 사이, 적절한 균형점 찾아야

생성형 AI를 비즈니스에 접목하기 위해 기업들은 RAG 등 환각 현상을 최소화 할 수 있는 여러 기술을 찾고 있다. 하지만 아직 환각 현상을 완전히 해소하는 방안은 없는 상황이다. 때문에 환각 현상을 최소화 하는 기술을 개발하되, 완전한 해소보다는 적절한 AI 서비스 활용에 초점을 맞춰야 한다는 의견도 제시되고 있다.

올거나이즈 신기빈 CAIO는 “LLM은 문맥 등을 고려해 확률적으로 가장 자연스러운 답변을 생성하는데, 그 ‘확률’은 아직 낮은 수준이다. 마치 사람이 말하는 듯한 착각이 들만큼 답변을 내놓는 것만으로도 놀라운 일이다”라며 “LLM은 자연스러우면서도 창의적인 답변이 강점인 기술”이라고 말했다.

네이버 하이퍼스케일 AI 성낙호 기술 총괄은 “환각은 생성형 AI가 ‘글을 잘 쓰는 도구’로 개발됐기 때문에 나타나는 현상이다. 우수한 글쓰기 능력을 기반으로 개인과 기업의 생산성 도구로 활용되던 AI의 사용 범위가 ‘정보 검색’으로 확대되면서 환각 현상이 문제가 되고 있다”며 “생성형 AI의 주요 능력인 ‘창작’은 새로운 이야기나 글을 잘 쓰는 것이 중요하다. 지금까지의 사실과 다르다는 이유로 AI가 글을 쓰지 못해 사용자가 도움을 받지 못한다면 효용이 훨씬 감소할 것”이라고 설명했다.

네이버의 ‘클로바 포 라이팅’ (출처: 네이버)
네이버의 ‘클로바 포 라이팅’ (출처: 네이버)

이어 성낙호 기술 총괄은 “환각 현상의 완전한 해소보다는 이용 목적에 맞는 AI 서비스를 제공하는 것, 모델이 사용자 질문 의도를 더 잘 파악해 필요에 따라 글을 생성하도록 개선하는 것이 더 적절한 목표일 것”이라며 “이를 위해 네이버는 모델 고도화와 함께 창작 도구 ‘클로바 포 라이팅(CLOVA for Writing)’, 기업용 솔루션 ‘클로바 스튜디오(CLOVA Studio)’, 업무 생산성 도구 ‘커넥트X(CONNECT X)’ 등 이용 목적에 맞는 서비스를 제공 및 준비 중”이라고 덧붙였다.

저작권자 © 아이티데일리 무단전재 및 재배포 금지