AI 딥페이크, 이제 사진·목소리도 처벌 대상?
이광희
더불어민주당
핵심 체크
- AI로 만든 가짜 이미지, 영상도 처벌해요.
- 목소리만 합성해도 처벌 대상이 될 수 있어요.
- 직접적인 성적 행위가 없어도 문제가 될 수 있어요.
- 딥페이크 기술을 명확히 겨냥했어요.

왜 이런 법이 나왔을까요?
AI 기술이 너무 발전해서 이젠 진짜와 가짜를 구분하기 어려워요. 성적인 장면이 없어도 교묘하게 괴롭히는 딥페이크가 늘고 있는데, 지금 법으로는 처벌하기 애매한 구석이 있었거든요. 그래서 법의 그물망을 더 촘촘히 하려는 거예요.
그래서 내 생활에 뭐가 바뀌는데요?
🧐 "꼭 노골적인 영상이 아니어도 문제가 되나요?"
네, 이제는 직접적인 성적 행위가 없어도 친밀한 스킨십을 연출하는 등 피해자가 성적 수치심을 느낄 수 있다면 처벌 범위에 들어갈 수 있어요.
🧐 "사진이나 목소리만 합성해도 처벌받나요?"
맞아요. 이전에는 '영상물' 중심이었지만, 이제는 인공지능으로 만든 가짜 이미지, 음성 파일도 명확한 처벌 대상이 됩니다.
딱! 이 조항이 바뀝니다
성폭력처벌법 제14조의2 제1항에서 '가공'의 뜻을 명확히 했어요. 기존에는 단순히 편집, 합성 수준이었지만, 이제는 인공지능 기술을 이용해 만든 진짜 같은 가짜 음향, 이미지, 영상까지 모두 포함하는 것으로 바뀌어요. 딥페이크 기술을 정조준한 거죠.
가공(인공지능 등을 이용하여 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상 등을 만드는 기술을 포함한다)
짧은 스토리를 들려드릴게요
평범한 직장인 A씨의 이야기예요.
📭 이 법안이 나오기 전엔
A씨는 헤어진 연인이 자신의 얼굴 사진과 목소리를 이용해 음란한 대화를 나누는 가짜 음성 파일을 만들어 유포한 사실을 알게 됐어요. 하지만 영상이 아니라는 이유로 처벌이 애매했죠.
📬 이 법안이 시행되면
이제는 영상이 아니더라도 AI로 만든 가짜 이미지나 음성 파일만으로도 성범죄 처벌이 가능해져 A씨를 괴롭힌 전 연인을 처벌할 수 있게 됩니다.
생각해 볼 점
🎈 기대되는 점
AI 기술을 악용한 신종 성범죄로부터 피해자를 더 두텁게 보호하고, 기술 발전에 맞춰 법적 공백을 메울 수 있다는 점이에요.
🔎 우려되는 점
'성적 수치심'이라는 기준이 다소 모호해서, 표현의 자유를 위축시키거나 법 집행 과정에서 혼란이 생길 수 있다는 목소리도 나와요.
본 콘텐츠는 의안 원문을 AI로 자동 요약한 내용입니다. 중립을 지향하나 사실과 다를 수 있으며, 어흥팀의 입장을 대변하지 않습니다.
부가 정보
지금 읽은 이 법안, 어때요?
어흥
0
아직 남긴 어흥이 없어요
어흥 전달까지 5일 13시간 남았어요