미성년자 특화 모델, 블랙 아웃 기능 추가…보호 정책과 자유 가치 충돌
[아이티데일리] 오픈 AI가 새로운 사용자 정책을 발표했다. 이중 관심이 쏠리는 것은 챗GPT가 18세 미만 사용자와 상호 작용하는 방식을 크게 바꾸겠다고 선언한 점이다.
오픈 AI 샘 올트먼에 따르면, 오픈 AI는 청소년의 사생활과 자유보다 안전에 집중한다는 방침이다. 이는 부적절한 답변으로 소송에 직면한 오픈 AI의 위기 대응책으로도 풀이된다.
오픈 AI는 새로운 정책을 통해 미성년자에게 성적인 주제, 자해 등 ‘유해한 대화’를 제공하지 않도록 모델을 교육할 예정이다. 특히 자살 논의가 이어질 경우 이용자의 부모에게 알리고 지역 경찰에게 신고할 수 있는 시스템을 구축한다.
또한 부모가 특정 시간대를 설정해 자녀의 챗GPT 사용을 제한하는 ‘블랙아웃’ 시간 기능도 제공할 계획이다.
하지만 이러한 계획을 실행하는 데는 큰 어려움이 있다. 바로 사용자 ‘연령 예측’이다. 미성년자를 보호하기 위해 만든 시스템이 성인에게까지 영향을 미칠 수 있기 때문이다.
이번 발표에 따르면 오픈 AI는 장기적으로 연령 예측 시스템을 구축한다. 다양한 정보를 통해 사용자의 연령을 추정하겠다는 것이다. 만일 사용자의 정보가 불완전할 경우 미성년자를 위해 구축된 환경을 우선 제공하고 별도 연령 인증 제도를 제공할 예정이다.
이번 오픈 AI의 연령 예측은 지난 8월 구글이 시행한 ‘연령 보증 정책’과 닮았다. 이는 검색 기록, 동영상 시청 패턴, 계정 사용 기간 등 사용자의 행동 신호를 분석해 미성년자를 식별한다. 새로운 민감 정보를 수집하지 않고 명의 기반의 생년월일 시스템보다 더 높은 신뢰성을 확보할 수 있다는 점이 특징이다.
오픈 AI 샘 올트먼 CEO는 “오픈AI는 청소년의 안전, 자유, 사생활 사이에서 갈등하고 있다. 우리의 미성년자 보호 정책이 자유의 가치와 충돌할 수 있겠지만 전문가들과 상의한 결과 이번 방식이 최선이라고 판단했다”고 밝혔다.
한편 오픈AI, 구글 등 빅테크들과 같이 국내 스타트업 뤼튼테크놀로지스(이하 뤼튼), 라이너 등도 비슷한 형태의 서비스를 공급하고 있다.
뤼튼은 자사 AI 서비스에 청소년 보호 정책을 적용 중이다. 먼저 AI 플랫폼 ‘뤼튼’은 14세 미만 사용자에게 보호자 동의를 요구하고 있으며 유해 컨텐츠에 대한 필터링 장치를 마련하고 있다. 캐릭터 챗 ‘크랙’은 성인인증과 세이프티 필터 2중 구조로 유해 컨텐츠를 관리하고 있다.
뤼튼 관계자는 “창작의 자유와 청소년 보호를 모두 잡기 위해 2중 구조를 채택했다”며 “안전한 서비스 제공을 위해 노력 중이며, 현재 정책들에 만족하지 않고 지속적으로 업데이트를 진행하고 있다”고 강조했다.


