[방송기술저널=박성환 박사, 동아방송예술대학교 겸임교수] 최근 디지털 플랫폼에서 목격되는 변화 중 가장 두드러진 현상은 ‘AI를 활용한 허위‧과장 광고’의 급격한 확산이다. 이른바 딥페이크·생성형 AI 기술이 대중화되면서, 단 몇 분 만에 전문 광고 영상처럼 보이는 콘텐츠를 만들어낼 수 있다. 문제는 이러한 기술이 건강·금융·투자 등 국민 안전과 직결된 분야에서 악용되고 있다는 점이다. 정보 취약계층을 겨냥한 기만적 광고가 증가하면서 사회적 피해는 증가하고, 기존의 미디어 규제 체계로는 이 새로운 기술 기반 사기 행태를 따라잡지 못하고 있다. 미국 국립표준기술연구소(NIST)가 AI로 생성된 콘텐츠 식별과 관련된 기술 표준 및 지침 개발을 주도하고, 의회가 움직이고 있는 것처럼 우리나라도 빠르고 정교한 방안 마련이 필요하다.
AI 기반 허위 광고의 실제 사례들
먼저 식품 의약품 분야에서 가장 심각한 문제가 발생하고 있다. SNS나 영상 플랫폼에서는 “30년 경력의 전문의가 보증한다”고 소개된 영상이 빠르게 퍼지고 있지만, 정작 영상 속 ‘의사’는 실존하지 않는 가상의 인물이다. AI가 만든 얼굴, AI가 만든 음성, AI가 쓴 대본이 결합해 ‘전문성’을 완벽히 위장한다. 특정 영양제가 만병통치약처럼 소개되거나, 기존 의료체계를 부정하면서 “병원에서도 말하지 않는 치료법”을 은밀히 제시하는 방식이 대표적이다. 이는 노년층과 만성질환 환자를 중심으로 심각한 오해를 불러일으키며, 금전적 피해와 건강 악화로 이어질 수 있다.
금융·투자 분야 역시 예외가 아니다. AI가 만들어낸 ‘가짜 경제 전문가’는 특정 종목을 추천하며 단기간 고수익을 약속한다. 여기에 유명 연예인, 스포츠 선수, 기업 CEO가 마치 함께 투자한 것처럼 꾸며진 딥페이크 영상이 덧붙는다. 국내외 플랫폼에서 이미 여러 차례 문제가 지적되었지만, 영상 속 인물의 얼굴·목소리·제스처가 실제와 거의 구분되지 않기 때문에 소비자는 사실 여부를 판별하기 어렵다. 기존의 검색 광고나 스팸 문자와 달리 딥페이크는 전문가의 권위, 유명인의 영향력, 영상 매체의 사실성 등으로 사람의 신뢰 체계를 정교하게 활용한다.
심화되는 사회적 문제
이 문제의 본질은 단순한 기술 오용이 아니라 ‘플랫폼 기반 신뢰 구조의 붕괴’이다. 영상 콘텐츠에 대한 대중의 기본 신뢰가 훼손되기 시작하면, 언론·방송·공적 정보 전달 체계 전체가 영향을 받고 사회 불신은 급속히 늘어난다. 영상으로 봐도 믿을 수 없다는 인식은 언론의 신뢰 회복에 큰 장애 요인이다. 특히 노년층은 디지털 정보 판별 능력의 차이, 의학·금융 정보를 전문적으로 검토할 수 없는 한계, 의료 불안과 경제적 불안이 결합된 심리로 악성 광고에 취약하다. 또한 플랫폼 기업의 광고 검증 시스템은 여전히 사각지대가 넓고, 신고 후 조치까지의 시간도 피해 확산을 막기엔 너무 느리다.
입법에는 어떤 내용이 담겨야 할까?
이런 문제를 근절하기 위해서 정부는 기술 특성에 부응하는 정교한 입법을 마련해야 한다.
첫째, AI 생성물 표시 의무화가 필요하다. 현재 일부 국가에서는 AI로 만들었음을 명시하도록 하는 규제가 논의되고 있지만, 국내에서는 실효성 있는 법제화가 미흡한 상황이다. 광고·의료·금융·선거 등 위험성이 높은 영역에 대해서는 강력한 제재를 부과해야 한다.
둘째, 플랫폼 사업자에 대한 책임을 명확히 해야 한다. 일정 기준 이상의 조회수를 기록한 광고에 대해서는 사전 검증 또는 사후 즉시 차단 체계를 의무화하고, 광고 집행 수익을 공유하는 플랫폼의 공동 책임도 필요하겠다. 지금처럼 단순한 신고 기반의 자율 규제로는 기술 악용 속도를 따라잡지 못한다.
셋째, 딥페이크 악용 범죄에 대한 별도 처벌 조항이 필요하다. 유명인의 초상·음성을 무단 활용해 투자나 의료 관련 사기 행위를 하는 것은 단순 저작권 침해가 아니라 명백한 사회적 위험 행위이기 때문이다.
소비자는 어떤 점을 주의해야 할까?
입법 이후에도 편법적인 악용의 소지는 상존한다. 소비자는 핵심 원칙을 세워 스스로 점검해야 한다.
첫째, 의료·금융·투자 정보 등은 반드시 공신력 있는 출처에서 확인해야 한다. 전문가가 등장하는 영상도 곧바로 신뢰는 금물이다. 공식 홈페이지·정부 기관 정보·언론 보도 등 2차 검증을 병행해야 한다.
둘째, ‘단기간 고수익’, ‘병원도 숨기는 치료법’과 같은 자극적 메시지는 원천적으로 의심하는 것이 기본 원칙이다. 이는 전통적 사기 광고의 전형적인 문구지만, AI 기술로 제작되면 더 설득력 있게 보인다는 점을 잊지 말자.
AI 생성물 관리 정책
향후 AI 생성물 관리 정책은 단순 규제를 넘어 ‘신뢰 인프라 재구축’을 목표로 해야 한다.
첫째, AI 콘텐츠에 대한 검증 기술을 국가 차원에서 고도화해야 한다. 딥페이크 탐지 알고리즘, 메타데이터 기반 인증 체계, 블록체인 기반 원본 추적 시스템 등 기술적 접근이 필수적이다.
둘째, 디지털 미디어 리터러시 교육을 강화해야 한다. 방송인·기자·대학생 모두 AI 기반 콘텐츠의 구조와 한계를 이해하는 것이 정보 안전의 중요한 축이 되고 있다. 특히 교육기관과 언론사는 AI 콘텐츠 검증 방법을 커리큘럼과 내부 표준 절차로 체계화할 필요가 있다.
셋째, 공공기관은 AI 생성물 규범을 제시하는 조속한 가이드라인 마련 등이 필요하다.
결론적으로 AI 기술은 미디어 산업의 혁신을 가속하지만, 동시에 정보 소비자를 위험에 노출시키는 새로운 형태의 ‘디지털 그림자’를 만들어내고 있다. 허위·과장 광고의 문제는 사회적 신뢰를 훼손하는 구조적 위험이다. 정부와 학계는 체계적이고 정교하게 신뢰받는 AI 시대의 미디어 환경 구축을 준비해야 한다. 그래서 신기술이 미디어의 순기능 확산에 도움 되기를 기대한다.

출처: https://www.aba.com/news-research/analysis-guides/deepfake-media-scams
