딥페이크(Deepfake)

[기술용어] 딥페이크(Deepfake)

1960

[방송기술저널 전숙희 기자] 딥페이크(Deepfake)는 딥러닝(Deep-learning)과 페이크(Fake)의 합성어로, 딥러닝 기술을 이용해 영상을 합성하고 조작하는 것을 의미한다.

딥페이크에 사용되는 기술은 이미 우리에게 친숙하다. 각기 다른 사람의 얼굴을 바꾸거나 다른 대상을 내 얼굴에 합성하는 등의 기능을 가진 애플리케이션이 최근 몇 년간 인기를 끌었으며 흔하게 사용되고 있다.

그러나 이러한 경우는 딥페이크라고 부르지는 않는다. 문제는 이처럼 기술의 발전으로 정교한 합성 영상을 손쉽게 만들 수 있다는 것이며, 이를 악용하는 사례가 증가하고 있다는 것이다.

‘가짜 뉴스’와 관련한 이슈가 우리나라뿐만 아니라 세계 곳곳에서 뜨겁게 논의되고 있다. 딥페이크로 입 모양을 바꿔 하지 않은 말을 한 것처럼 또는 전혀 다른 인물이 말한 것처럼 조작한 영상이 등장하고 이는 가짜 뉴스에 신뢰성을 부여하면서 사회적 문제가 되고 있다.

특히, 가장 큰 문제는 디지털 성범죄에 악용하는 사례다. 다른 사람의 얼굴을 포르노 영상에 합성한 딥페이크 포르노 영상이 계속해서 만들어지고 있으며, 유명인, 일반인 등 누구나 이러한 성범죄의 피해자가 되고 있다. 이미 인터넷에는 ‘지인 합성’, ‘연예인 합성’을 해준다며 딥페이크 포르노를 만들어 부당한 이익을 얻고 인권을 유린하는 이들이 넘쳐난다.

네덜란드 사이버 보안 연구 회사 ‘딥트레이스’의 딥페이크 연구 보고서에 따르면, 2018년 12월 약 8,000개에 이르던 딥페이크 영상이 2019년 14,698개로 무서운 속도로 증가하고 있음 이 중 96%는 포르노로 소비되고 있다. 피해자는 미국과 영국의 여성 배우가 46%로 가장 많은 비중을 차지했고, 다음으로는 K-pop 여성 가수가 25%를 차지했다.

앞으로 딥페이크의 기술은 더욱 정교해지고 사용하기 쉬워질 것이다. 기술을 사용하는 우리의 태도와 윤리에 대한 성찰, 사회적 반성이 필요한 시점이다.