기사 메일전송
손가락 한 번에 연예인 얼굴 복제…카리나 사례가 보여준 딥페이크의 섬뜩한 진화
  • 김상우 IT & 기술 전문기자
  • 등록 2026-03-20 09:02:29
기사수정
  • 연예인 얼굴로 시작된 딥페이크, 이제는 모두의 문제가 됐다
  • 더 정교해진 합성 기술, 무너지는 신뢰와 안전
  • 플랫폼 차단부터 법 집행까지, 늦어진 대응을 서둘러야 한다

AI로 만들어낸 카리나 = SNS 캡쳐얼굴을 훔치는 AI, 다음은 누구인가…장원영 사례가 드러낸 딥페이크 공포

최근 온라인에서는 한 남성이 손가락을 튕기자 장원영, 제니, 아이유, 카리나 등 유명 연예인의 얼굴로 순식간에 바뀌는 영상이 빠르게 확산했다. 문제는 이 영상이 더 이상 어설픈 합성물로 보이지 않는다는 점이다. 얼굴만 덧씌운 수준이 아니라 윙크, 입술의 미세한 움직임, 몸짓까지 자연스럽게 따라붙는다. 보는 이들이 “신기하다”보다 “무섭다”에 먼저 반응한 이유다. 기술은 이제 사람의 얼굴을 복제하는 단계를 넘어, 사람의 존재감 자체를 모사하는 수준으로 들어섰다.

더 섬뜩한 대목은 이런 영상이 범죄 현장에서 포착된 결과물이 아니라, 오히려 “곧 출시할 앱을 팔로우해달라”는 식으로 기술 홍보용 데모처럼 유통됐다는 사실이다. 범죄가 아직 발생하지 않았으니 문제도 아니라는 식의 인식은 위험하다. 딥페이크의 본질은 완성된 범죄 영상 하나에만 있지 않다. 누군가의 얼굴을 허락 없이 수집하고, 합성하고, 유통 가능한 상품으로 바꾸는 순간 이미 인격 침해는 시작된다. 시연과 악용 사이의 거리가 사실상 사라진 것이다.


연예인은 테스트베드, 시민은 다음 표적

연예인 사례가 유독 크게 주목받는 것은 얼굴의 인지도가 높기 때문이다. 그러나 이것을 “유명인만의 문제”로 축소해서는 안 된다. 민간 보안업체 시큐리티 히어로의 2023년 분석에 따르면 딥페이크 음란물에 등장하는 대상의 99%는 여성이었고, 94%는 연예계 종사자였으며, 한국 국적 인물이 53%를 차지했다. 특히 이 보고서는 “한국의 가수와 배우가 가장 흔한 표적 집단”이라고 지적했다. K-콘텐츠의 세계적 확산이 한국 연예인의 얼굴을 더 널리 노출시켰고, 그만큼 악용 가능한 데이터도 풍부해졌다는 뜻이다.

하지만 연예인은 어디까지나 기술의 실험대에 먼저 오른 얼굴들일 뿐이다. 공개 사진이 많은 유명인을 대상으로 성능을 입증한 뒤, 일반인의 졸업앨범 사진, SNS 프로필, 단체사진, 영상통화 캡처로 범위가 넓어지는 구조는 이미 여러 디지털 성범죄에서 반복돼 왔다. 유명인의 얼굴로 기술을 시험하고, 일반인에게 범죄를 확장하는 방식이다. 그래서 연예인 딥페이크 논란은 연예뉴스가 아니라 사회 전체에 대한 예고편에 가깝다.


AI로 만들어낸 뉴진스의 하니와 민지 = SNS 캡쳐

가장 먼저 무너지는 것은 여성과 10대의 안전

실제 피해는 이미 통계로 확인된다. 한국여성인권진흥원 자료에 따르면 최근 1년간 중앙디지털성범죄피해자지원센터를 통해 지원받은 딥페이크 성범죄 피해자는 1,807명으로, 전년 같은 범주의 지원 규모보다 128% 증가했다. 전체 피해자의 97.1%가 여성이었고, 10대 이하가 46.4%, 20대가 45.9%를 차지했다. 딥페이크가 더 이상 일부 온라인 커뮤니티의 일탈이 아니라 학교, 대학가, 폐쇄형 SNS를 타고 대량 확산되는 현실적 범죄라는 뜻이다.

정부의 사이버성폭력 집중단속 결과도 사정이 심각함을 보여준다. 2025년 11월 공개된 정부 자료에 따르면 1년간 집중단속에서 허위영상물(딥페이크) 성범죄는 1,827건 발생했고, 1,462건에서 1,438명이 검거됐다. 딥페이크는 이제 ‘가능성 있는 위협’이 아니라, 이미 수사기관이 대규모로 쫓고 있는 현재진행형 범죄다. 기술 발전 속도와 범죄 확산 속도가 제도 보완 속도를 앞지르는 상황에서 피해는 늘 개인이 먼저 떠안고 있다.


“보는 것까지 처벌”로 옮겨간 법의 무게

법도 뒤늦게나마 강경해지고 있다. 현행 성폭력처벌법 제14조의2는 사람의 얼굴·신체·음성을 대상으로 본인 의사에 반해 성적 수치심을 유발할 수 있는 형태로 편집·합성·가공한 경우, 또 이를 반포한 경우 각각 7년 이하의 징역 또는 5천만원 이하의 벌금에 처하도록 정하고 있다. 더 나아가 영리 목적 유포는 3년 이상의 유기징역, 해당 편집물이나 복제물을 소지·구입·저장·시청한 행위 역시 3년 이하의 징역 또는 3천만원 이하의 벌금 대상이 된다. 제작자와 유포자만이 아니라 소비자까지 처벌 범위에 넣은 것이다.

이 변화가 상징하는 바는 분명하다. 딥페이크는 ‘가짜니까 실제 피해가 아니다’라는 변명이 통하지 않는다는 점이다. 법은 이미 허위영상물 그 자체를 폭력의 한 형태로 본다. 피해가 현실의 신체 접촉 없이 발생하더라도, 명예 훼손과 수치심, 사회적 낙인, 불안, 학업 및 직장생활 중단 같은 후속 피해는 너무나 현실적이기 때문이다. 디지털 공간의 조작이 현실 세계의 삶을 무너뜨릴 수 있다는 점을 법이 뒤늦게 인정한 셈이다.


AI로 만들어낸 르세라핌의 채원 = SNS캡쳐

사람의 눈은 이미 이 기술을 따라가지 못한다

더 큰 문제는 인간의 직감이 더 이상 믿을 만한 방어선이 아니라는 데 있다. 딥페이크 인식에 관한 행동실험 연구는 일반 이용자들이 딥페이크를 신뢰성 있게 식별하지 못하며, 경각심을 높이거나 인센티브를 줘도 정확도가 유의미하게 나아지지 않는다고 보고했다. 다시 말해 “자세히 보면 가짜인지 안다”는 상식이 기술 발전 앞에서 무너지고 있다는 얘기다. 육안 감별에 의존하는 사회는 결국 가장 느린 대응 체계가 될 수밖에 없다.

그래서 대응도 ‘판단’ 중심에서 ‘차단’ 중심으로 바뀌고 있다. 방송통신위원회는 2025년 업무계획에서 딥페이크 활용 불법촬영물 등에 대해 ‘선차단 후심의’ 원칙을 제시했고, AI 서비스 피해 신고창구 운영과 위험요소 신고·검증 체계 구축도 과제로 내걸었다. 중앙디지털성범죄피해자지원센터 역시 딥페이크를 포함한 디지털 성범죄 피해에 대해 상담 접수, 삭제 지원, 유포 모니터링, 수사·법률·의료 연계를 원스톱으로 제공하고 있다. 이제 필요한 것은 피해자가 “입증”할 때까지 기다리는 체계가 아니라, 의심 정황만으로도 신속히 멈춰 세우는 체계다.


기술의 문제가 아니라, 신뢰 붕괴의 문제

장원영 사례가 던진 충격의 본질은 한 연예인의 얼굴이 도용됐다는 데만 있지 않다. 이제는 누구의 얼굴이든, 누구의 목소리든, 누구의 존재감이든 데이터만 있으면 복제 가능한 시대가 됐다는 데 있다. 딥페이크는 허위영상의 문제가 아니다. 그것은 신뢰의 기반을 무너뜨리는 기술이다. 내가 본 것이 진짜인지, 들은 것이 본인의 말인지, 온라인에 떠도는 증거가 실제인지조차 확신할 수 없게 만드는 순간, 사회는 정보 혼란을 넘어 관계 자체의 붕괴를 겪게 된다.

기술은 더 빨라질 것이다. 그렇다면 사회는 적어도 세 가지에서 더 빨라져야 한다. 플랫폼의 즉시 차단, 수사기관의 신속 추적, 피해자 지원의 무조건적 개입이다. 딥페이크가 무서운 이유는 너무 정교해서가 아니다. 그것이 너무 쉽고, 너무 빠르며, 너무 널리 퍼질 수 있기 때문이다. 지금 필요한 것은 “기술이 더 발전하면 어떡하나”라는 막연한 공포가 아니라, 이미 시작된 침해를 사회가 어디까지 용인하지 않을 것인지에 대한 분명한 선 긋기다. 


1
LG스마트 TV
갤럭시 S26 울트라
모바일 버전 바로가기