이효성 방통위원장 “지능정보사회, 이용자 보호 규범 마련할 때” ...

이효성 방통위원장 “지능정보사회, 이용자 보호 규범 마련할 때”
성남시 판교 카카오에서 현장 간담회 개최

636
ⓒ방송통신위원회

[방송기술저널 전숙희 기자] 방송통신위원회(이하 방통위)는 지능정보사회로 진입하는 과정에서 인공지능(AI)·데이터 활용 확산에 따른 윤리 규범과 가치를 체계적으로 정립해 나가기 위한 방안을 논의하기 위해 2월 13일 오후 3시 경기도 성남시 판교에 위치한 카카오를 방문해 정책 간담회를 개최했다고 밝혔다.

이번 정책간담회에서는 지능정보사회에 대응하기 위해 △지능정보기술 이용행태 변화에 대한 조사·분석 인프라 구축 △신기술에 의한 피해 예방 등을 통한 이용자 보호 강화 △AI 오작동 등 서비스 구입·이용 과정에서의 피해 구제 절차 마련 방안 등에 대해 논의했다.

이 자리에서 그간 지능정보 서비스의 영향 분석 연구를 수행해 온 이원태 KISDI 그룹장은 “복잡하고 다양해지는 지능정보기술 도입에 따른 이용자 피해를 예방·구제하고 안전하게 활용할 수 있도록 체계적으로 대응하기 위해서는 영국 등 주요 선진국과 같은 ‘AI·데이터 윤리혁신센터’ 설치가 시급하다”고 강조했다.

또한, 최경진 가천대 교수는 “AI와 데이터 기반의 방송통신 환경에 능동적으로 대응하기 위해 산학연이 참여하는 ‘협력적 규제’ 모델이 필요하다”며 “급속히 지능정보사회로 이동하고 있지만 법제도가 미비하므로 ‘AI 이용자 보호 가이드라인’과 같은 자율 행동 규범을 마련해야 한다”고 강조했다.

한편, 국내 최초로 AI 윤리 헌장을 발표·시행하고 있는 카카오의 김대원 정책담당 이사는 “AI 기업은 서비스와 기술에 대한 사회적 신뢰 확보를 선결과제로 인식하고 있다”며, “국내외 주요 AI 기업이 자율적으로 AI 윤리원칙을 정비하고 있다”고 설명했다.

이효성 방통위원장은 “최근 AI의 부정적 활용으로 새로운 윤리적·기술적·법적 문제가 야기돼 브랜드 평판과 매출에 부정적 영향을 주며, AI 서비스의 지나친 상업적 활용으로 이용자가 편향된 정보만을 접하는 문제도 발생할 수 있다”고 설명하면서 “구글·MS 등 글로벌 기업도 이를 인식하고 정책입안자·학계 등과 연계하여 AI 윤리 연구를 시작했다”고 말했다.

이어 “우리도 혁신적 지능정보 서비스가 안정적으로 활성화할 수 있는 환경을 조성하기 위해 민관협의체를 구성해 지능정보사회 이용자 보호를 위한 규범과 가치를 정립하는 등 적극적으로 대응해 나가겠다”고 밝혔다.