17일 GPA 서울 총회서 전문가들 경고…“사용자 통제권 강화 필요”

17일 제47차 글로벌 프라이버시 총회에서 열린 ‘AI 에이전트와 프라이버시’ 패널 세션 현장. (왼쪽부터) 서울대학교 임용 법학전문대학원 교수, 영국 정보위원회 존 에드워즈 위원장, 개인정보 미래포럼 줄스 폴로네츠키 대표, 구글 케이트 샬럿 글로벌 안전 및 보안 부서장, LG AI연구원 김유철 전략부문 부문장 (사진=개인정보보호위원회)
17일 제47차 글로벌 프라이버시 총회에서 열린 ‘AI 에이전트와 프라이버시’ 패널 세션 현장. (왼쪽부터) 서울대학교 임용 법학전문대학원 교수, 영국 정보위원회 존 에드워즈 위원장, 개인정보 미래포럼 줄스 폴로네츠키 대표, 구글 케이트 샬럿 글로벌 안전 및 보안 부서장, LG AI연구원 김유철 전략부문 부문장 (사진=개인정보보호위원회)

[아이티데일리] ‘제47차 글로벌 프라이버시 총회(GPA)’에 모인 개인정보 보호 전문가들이 자율성을 갖춘 ‘에이전틱(Agentic) AI’를 안전하게 활용하기 위해서는 투명성 확보가 중요하다고 강조했다.

17일 서울 그랜드 하얏트 서울에서 열린 GPA 총회에서 ‘AI 에이전트와 프라이버시’를 주제로 패널 세션이 진행됐다. GPA 총회는 이달 15일부터 19일까지 닷새간 용산구 그랜드 하얏트 서울에서 열리며 95개국 148개 기관에서 관계자 1,000여 명이 참여한다.

이번 패널 세션은 서울대학교 임용 법학전문대학원 교수가 좌장을 맡았다. 패널로는 영국 정보위원회(ICO) 존 에드워즈(John Edwards) 위원장, 개인정보 미래포럼(FPF) 줄스 폴로네츠키(Jules Polonetsky) 대표, 구글 케이트 샬럿(Kate Charlet) 글로벌 안전 및 보안 부서장, LG AI연구원 김유철 전략부문 부문장 등 4명이 참여했다.

AI 기술은 거대언어모델(LLM)을 위시한 생성형 AI를 넘어 에이전틱 AI로 진화하고 있다. 전문가들은 에이전틱 AI를 이전 기술과 구분 짓는 가장 큰 특징으로 ‘자율성’을 꼽았다.

LG AI연구원 김유철 부문장은 “에이전틱 AI은 자율성을 갖췄다. 데이터 기반 AI는 프롬프트와 인간의 지도가 필요한 데 비해, 에이전틱 AI는 의사결정, 위험 감지 등 작업을 스스로 수행할 수 있다”고 설명했다.

하지만 자율성이 강한 만큼 위험도 따른다. 사용자 동의 없는 개인정보 활용 우려는 물론, 해커가 에이전트를 장악해 대규모 공격에 악용할 위험까지 제기된다.

개인정보 미래포럼 줄스 폴로네츠키 대표는 “AI 에이전트는 문제 해결을 위해 온갖 상호작용을 수행한다. 이 과정에서 사전에 동의하지 않은 정보까지 사용될 수 있다”며 “발전하는 기술에 발맞춰 개인정보 보호를 어떻게 보장할지를 두고 제도적 논의가 필요하다”고 설명했다.

전문가들은 해법으로 ‘투명성’을 꼽았다. 에이전틱 AI가 어떤 근거로 결정을 내렸는지 사용자가 이해할 수 있도록 설명해야 한다는 것이다.

구글 케이트 샬럿 글로벌 보안 부서장은 “투명성은 우리가 AI를 이해하고 올바른 기대를 품도록 만드는 열쇠”라며 “AI가 어떤 과정을 거쳐 추론하고 작업을 수행하는지 공개하는 한편, 필요한 데이터만 접근하도록 제한해야 한다”고 설명했다.

영국 정보위원회 존 에드워즈 위원장은 “우리는 편리함을 누리면서도 인간적 주체성과 자율성을 지킬 권리가 있다”며 “에이전틱 AI가 어떤 권한으로 어떤 정보를 수집·활용하는지 사용자에게 알려야 하며, 사용자가 이를 통제할 수 있어야 한다”고 말했다.

이어 “AI 기술 대중화로 무분별하게 만들어진 솔루션이 쏟아질 가능성이 크다”며 “AI 생태계 보호는 국가를 넘어선 전 세계적 과제다. 안전하고 투명한 개발 환경을 만들기 위해 모두가 협력해야 한다”고 강조했다.

저작권자 © 아이티데일리 무단전재 및 재배포 금지