본문 바로가기
주목 e 기술

딥페이크의 암(暗), 드러나는 폐해
허위 식별·차단 기술 속속

글_ 편집실

최근 딥페이크 기술이 발전하면서 이로 인한 피해가 급증하고 있다. 가짜 영상과 음성은 점점 더 정교해져 진위 구분이 쉽지 않은 데다, 일반인도 이러한 기술에 쉽게 접근할 수 있어 문제의 심각성은 더욱 커질 전망이다. 이에 따라 가짜 정보를 식별하고 차단하기 위한 기술이 그 어느 때보다 절실히 요구된다.

10대 청소년 범죄 노출 심각

딥페이크를 이용한 범죄 문제가 심상치 않다. 더욱 우려스러운 것은 딥페이크 범죄 피의자의 80% 이상이 10대 청소년이라는 점이다. 이들의 기술 접근성과 디지털 환경에 익숙한 특성이 범죄에 무방비한 상태로 만드는 것인데, 그 결과 이를 예방하기 위한 교육과 제도적 대책 마련이 시급한 과제로 떠올랐다.

지난 9월 말 경찰청의 발표에 따르면, 딥페이크 성범죄 문제가 사회적 대두되면서 ‘최근 한달 동안(8월 28일부터 9월 25일까지)’ 진행된 집중 단속 기간에 총 367건의 신고가 접수됐다. 또한 올해 1월부터 8월 27일 현재까지 17개 시도교육청의 학생·교원 피해 현황을 보면 총 196건(학생 186건, 교원 10건)의 피해신고가 접수, 이 중 179건이 수사당국에 수사를 의뢰한 것으로 나타났다.1) 이후 9월 6일까지 238건의 피해사례가 증가했으며, 수사의뢰 건수는 171건이 추가 집계됐다.2) 이에 정부는 학교 딥페이크 대응 긴급 전담조직을 구성, 예방 교육 프로그램을 꾸준히 운영함은 물론 스스로가 딥페이크에 대처할 수 있도록 관련 교육을 제공하겠다고 약속했다. 1) 교육부(2024), 허위합성물(딥페이크) 피해 우려에 학생‧교원 보호 및 불안감 해소 적극 나선다, 보도자료(8월 28일자).
2) 교육부(2024), 교육부, 학교 딥페이크 성범죄 피해현황 2차 조사결과 발표, 보도자료(9월 9일자).

혈류 추론으로 진위 구별하는 기술 개발

딥페이크의 위협이 날로 커지는 반면, 해당 기술의 영상을 실시간으로 탐지하는 것은 그리 간단한 일이 아니다. 분석을 위해서는 탐지 애플리케이션에 영상을 업로드하고, 결과가 나올 때까지는 다시 일정 시간을 기다려야 하는 이유다. 다만 지난 3월 가트너(Gartner)는, 사이버 보안 솔루션에 대한 기업들의 투자가 2023년 1,880억 달러에서 올해 2,150억 달러까지 증가할 것으로 예측, 딥페이크 폐해의 심각성과 탐지 기술의 필요성을 간접적으로 시사한 바 있다.

딥페이크 기술의 악용을 방지하기 위한 기술은 일반적으로 ‘딥페이크 탐지기술’로 불린다. 이 기술은 영상이나 이미지에서 인위적인 변조를 식별해, 가짜 콘텐츠를 조기에 발견해 차단하는 것이 가능하다.

위조 불가한 워터마크로 딥페이크 이미지를 구별하는 방법도 개발되고 있다. 구글 딥마인드가 지난해 8월 선보인 AI 합성 이미지용 워터마크 ‘신스ID(SynthID)’는 AI 이미지 생성 플랫폼에서 만든 이미지에 육안으로 보이지 않는 워터마크를 픽셀 단위로 넣어서 해당 이미지가 실제가 아님을 식별할 수 있게 한다. 인텔 역시 96%의 정확도로 가짜 동영상을 탐지할 수 있는 페이크캐쳐(FakeCatcher) 기술 개발에 성공했다. 이는 인텔 하드웨어와 소프트웨어를 사용하며, 웹 기반 플랫폼을 통해 서버와 인터페이스 상에서 구동한다. 소프트웨어로는 다양한 전문 소프트웨어 도구를 사용해 최적화된 페이크캐쳐 아키텍처를 구성하는데, 이를 위해서는 얼굴과 지형지물 감지 알고리즘을 위해 오픈비노(OpenVINOM)를 사용한다.

‘안티페이크(AntiFake)’는 적대적 기법으로 노이즈를 적용,
사람의 귀에는 정확하게 들리는 반면 AI는 이를 완전히 다른 음성으로
인식함으로써 악의적인 목소리 합성이나 타인 사칭을 원천적으로 막아준다.

대부분의 딥러닝 기반 탐지기가 비진위성의 징후를 찾고 영상의 문제를 식별하는 데 반해 페이크캐쳐는 실제 인간의 요소, 즉 비디오 픽셀에서 나타나는 인간의 미묘한 ‘혈류’를 가늠해 실제 영상에서 단서를 확보할 수 있다. 말하자면 심장이 혈액을 내보낼 때 정맥의 색이 변하면 원본 영상에서 나타나는 사람의 얼굴에서 혈류 신호를 수집한 후 알고리즘을 통해 시공간 지도로 변환, 이후 딥러닝으로 영상의 진위를 즉시 판단할 수 있게 하는 식이다.3) 3) 인텔 뉴스룸(https://www.intel.co.kr)

AntiFake, 음성 보호 기술로 범죄 차단

생성 인공지능의 발전은 이미 사람이 다른 사람과 대화하는지 딥페이크인지 구별할 수 없을 정도로 진정한 소리의 음성 합성을 가능하게 했다. 그러나 AI가 음성 합성에 필요한 녹음을 차단해 주는 기술이 지난해 12월 개발돼 범죄 예방에 기여할 것으로 기대되고 있다. 워싱턴대학교 연구팀이 내놓은 해당 기술 ‘안티페이크(AntiFake)’는 적대적 기법으로 노이즈를 적용, 사람의 귀에는 정확하게 들리는 반면 AI는 이를 완전히 다른 음성으로 인식함으로써 악의적인 목소리 합성이나 타인 사칭을 원천적으로 막아준다. 따라서 사이버 범죄자들이 음성 복제에 사용하는 것과 유사한 기법을 사용, 불법 복제 및 위조로부터 음성을 보호할 수 있다.4)

이러한 기술적 진보와 함께 딥페이크 문제를 직접 해결하고자 나선 젊은 층도 있다. 최근 사회 문제로 떠오른 딥페이크 성범죄를 해결하기 위해 영남대와 고려대 학생들이 ‘딥실드(DeepShield)’라는 딥페이크 방지 필터 애플리케이션(앱)을 개발, 지난 9월 13일 애플 앱 스토어에 출시했다. 앱은 AI가 페이크 이미지를 만들기 위한 알고리즘에 혼란을 줘 원본 속 얼굴 인식을 방해하는 기능을 제공하며, 곧 안드로이드 버전도 출시될 예정이다.5) 4) https://www.aifnlife.co.kr/news/articleView.html?idxno=22352
5) https://www.news1.kr/society/incident-accident/5546773

법 개정, 소지·시청만 해도 처벌

딥페이크 범죄를 막기 위한 법적 장치도 더욱 강화되는 추세다. 최근 ‘딥페이크 처벌법’ 개정안이 국회 본회의를 통과, 딥페이크 성범죄 대응에 강력한 전환점이 마련됐다.

지난 9월 26일 국회 본회의를 통과한 성폭력범죄처벌특례법(성폭력처벌법) 개정안은 “딥페이크 성 착취물을 소지하거나 시청할 경우 3년 이하 징역 또는 3천만 원 이하의 벌금형에 처할 수 있으며, 불법 유포자의 경우 기존 법정형이 5년 이하 징역에서 7년 이하 징역에 처할 수 있다”는 내용을 명시하고 있다. 이는 정부가 딥페이크 기술을 악용한 범죄를 막기 위해 마련한 강력한 조치 중 하나로, 앞으로는 불법 합성 영상물의 소지·구입·저장·시청 행위 자체도 처벌 대상이라는 뜻이다.

더욱이 이번 개정안은 경찰이 딥페이크 성범죄 수사 과정에서 신분을 위장해 수사할 수 있도록 허용하는 방안을 포함하고 있어 눈길을 끈다. 이로써 현재 아동·청소년을 대상으로 한 디지털 성범죄에만 허용되던 위장 수사가 성인 대상 딥페이크 성범죄에도 확대 적용, 딥페이크 범죄의 근본적 차단을 위한 수사력이 강화될 것으로 기대된다.

그런가 하면 딥페이크 기술 및 생성형 AI가 악용되지 않도록 예방적 조치도 마련된다. 생성형 AI로 제작된 영상물에 워터마크 표시를 의무화해 영상의 출처를 명확히 함은 물론, 딥페이크 음란물 피해자의 신상 정보가 온라인에 퍼질 경우 신속히 삭제할 수 있는 법적 근거도 제공할 예정이다.6)

한편, 경찰청은 내년에 딥페이크·딥보이스 등 허위 조작 콘텐츠를 탐지할 수 있는 딥러닝 기술 개발을 위해 27억 원을 투자하는 등 지속적인 기술적 대응책 마련에 힘쓰고 있다. 특히, 딥러닝에 기반한 허위 조작 콘텐츠 복합 탐지 기술 개발에 집중 투자, 2027년까지 3년 동안 총 91억 원의 예산을 편성했다. 또 AI 기법을 활용한 허위영상물 탐지가 가능하도록 소프트웨어를 고도하는 작업에 전년 대비 2억 원 증액한 5억 원을 투입할 계획이다.

이러한 투자를 통해 허위 조작 콘텐츠의 조기 탐지 및 예방은 앞으로 더욱 강화될 것으로 기대된다.7) 6) https://www.korea.kr/news/policyNewsView.do?newsId=148934495
7) https://www.korea.kr/news/policyNewsView.do?newsId=148934156