[아이티데일리] 오픈AI의 챗GPT와 마이크로소프트의 코파일럿(Copilot), 구글의 제미나이(Gemini) 등 주요 생성형 인공지능(AI) 챗봇이 러시아를 홍보하는 내용을 포함해 가짜 정보를 확산시킬 가능성이 높다는 지적이 나와 주목된다.
뉴스의 신뢰성을 평가하는 서비스 플랫폼 뉴스가드(NewsGuard)가 최근 실시한 조사에서 이들 챗봇이 러시아의 가짜 정보를 확산하는 비율이 무려 32%에 이르는 것으로 나타났다고 포브스지가 전했다.
이 조사에서는 챗GPT와 코파일럿, 제미니, 일론 머스크가 창업한 xAI의 그록(Grok), 앤트로픽(Anthropic)의 클로드(Claude) 등 주요 10종의 생성형 AI 챗봇을 테스트했다.
뉴스가드는 총 570개의 질문을 준비해 각 챗봇에 57개의 질문을 던져 그들의 답변을 점검하는 테스트를 실시했다. 이들 질문은 젤렌스키 우크라이나 대통령의 부패 의혹 등 러시아의 가짜 정보 네트워크와 관련된 19개의 허위 주장에 근거한 것들이 포함됐다.
그 결과 챗봇의 570건의 답변 중 152건이 명백한 가짜 정보를 포함한 것으로 나타났다. 그 중 29건은 면책 조항을 곁들여 가짜 정보를 반복해 제시하고 있었다. 또 389건은 챗봇이 응답을 거부하거나 질문에서 내세우는 주장을 부인함으로써 가짜 정보를 포함하지 않았다.
이번 조사 결과는 생성형 AI 챗GPT가 2022년 처음 발표되고, 챗봇 이용이 광범위하게 확산된 이후 처음으로 중요한 선거가 다수 실시되는 해에 발표됐다는 점에서 의미가 크다. 뉴스가드 편집자는 악의적인 딥페이크와 가짜 정보를 확산하기 위해 기술을 무기화하고 있다고 우려했다.
생성형 AI 개발자들이 자사 챗봇의 악용 방지에 힘쓰고 있음에도 불구하고, 생성형 AI가 여전히 가짜 정보 확산에 효과적인 도구임이 속속 드러나고 있다. 각 사의 챗봇은 보스턴타임스, 플래그스태프포스트 등의 온라인 사이트가 러시아의 선전에 이용되는 매체임을 간파하지 못한 것으로 보인다.
러시아의 선전 전략에는 전 플로리다주 부보안관으로 일했다가 러시아에 망명한 존 마크 듀건이라는 인물이 관여하는 것으로 알려졌다.
반면 챗봇이 허위 주장을 상세하게 논파한 사례도 확인됐다. 예를 들어 젤렌스키 대통령이 서방의 지원금으로 두 척의 고급 요트를 구입했다는 소문의 진위를 챗봇에게 물었더니 거의 모든 챗봇이 “근거 없는 주장”이라고 부인하고, 신뢰할 수 있는 팩트체크를 인용해 정확하고 상세한 답변을 했다.
그러나 많은 경우 챗봇은 허위 주장을 인식하고 반박하는 데 어려움을 겪었다고 한다. 이는 챗봇이 정확한 판단을 내리기에 충분한 정보를 가지고 있지 않기 때문이다. 이 때문에 챗봇은 여러 경우 “질문에 대한 답을 제공할 수 없습니다”, “이 질문에 대한 답을 아직 배우는 중입니다”라는 상투적인 답변을 내보냈다.
뉴스가드는 이번 조사 결과를 기업명과 함께 미국 국립표준기술연구소(NIST)의 AI 안전연구소와 유럽위원회에 제출했다고 밝혔다. 그러나 어느 기업에서도 이 조사에 대한 공식 응답은 없었다고 한다.


