[방송기술저널 전숙희 기자] 기존 콘텐츠를 활용해 유사 콘텐츠를 새로 만들어내는 ‘생성형 인공지능(generative AI)’ 서비스 과정에서 이용자 피해를 방지하기 위한 가이드라인이 나왔다.
방송통신위원회는 텍스트, 오디오, 이미지 등 생성형 AI 서비스 이용 과정에서 피해를 방지하기 위해 사업자들이 참고할 수 있는 실천 방안을 담은 ‘생성형 인공지능 서비스 이용자 보호 가이드라인’을 2월 28일 발표했다.
오는 3월 28일부터 시행하는 이번 가이드라인은 생성형 AI 개발사 및 서비스 제공자를 대상으로 서비스 전반에 걸쳐 추구해야 할 4가지 기본 원칙과 이를 실현하기 위한 6가지 실행 방식을 제시하고 있다.
이와 함께 사업자들의 수용성 및 이해도 제고를 위해 실제 제공하고 있는 서비스 중 이용자 보호 영역의 모범 사례도 제공한다.
방통위는 “생성형 AI 기술의 급격한 발전이 일상생활에 혁신적 변화를 가져오고 있지만, 사회적으로 물의가 되는 딥페이크 성범죄물, 차별·편향 등 부작용도 심각하게 대두되고 있어 이용자 안전 및 권리를 보호할 제도적 기반 마련이 필요하다”고 이번 가이드라인의 취지를 설명했다.
방통위는 이를 위해 정보통신정책연구원(KISDI) 및 AI 전문가가 참여하는 연구반을 구성하고, 그 간의 생성형 AI 피해 사례와 국내외 주요 서비스별 이용자 보호 현황 등을 검토해 이번 가이드라인을 마련했다.
이 과정에서 이해관계자 의견을 수렴하기 위해 지난해 9월 열린 ‘인공지능서비스 이용자보호 학술회의’를 통해 가이드라인의 주요 내용을 발표하고, 주요 사업자 대상 기업 간담회를 개최하는 등 현실적이고 실행 가능한 내용을 담기 위해 노력했다.
이번 가이드라인은 28일부터 방통위 홈페이지에서 다운로드받을 수 있으며, 방통위는 시행일 기준 2년마다 가이드라인에 대한 타당성을 검토해 개선 등 조치를 취할 계획이다.
신영규 방통위 방송통신이용자정책국장은 “이번 가이드라인을 통해 생성형 AI 사업자가 바람직한 이용자 보호 방안을 마련할 수 있게 될 것으로 기대한다”며, “이를 통해 궁극적으로 이용자의 권리가 보장되고 관련 서비스가 신뢰받을 수 있는 기반을 마련할 수 있을 것”이라고 말했다.
방통위는 향후에도 AI 기술 발전과 함께 새롭게 발생하는 이용자 보호 이슈에 대응해 나갈 예정이며, 모든 사회구성원이 안전한 서비스 이용 환경 속에서 AI의 편의와 혜택을 고루 누릴 수 있도록 하는 데 앞장선다는 방침이다.