[사회] 이재명에 버럭? 尹도 가짜에 당했다…총선 앞 딥페이크 비상

본문

민생 소리 좀 그만해. 민생 걱정한다는 애가 국민들 갈라치기에만 몰두하냐.

7일 틱톡의 한 계정에 올라와 있는 인공지능(AI)으로 만든 가짜 윤석열 대통령이 이재명 더불어민주당 대표를 비난하는 내용의 딥페이크 영상이다. 유튜브에도 앞서 한동훈 국민의힘 비상대책위원장이 김건희 여사의 명품가방 논란과 관련해 “조폭들이나 할 일”이라고 발언한 것처럼 만든 가짜 영상이 올라오기도 했다.

제22대 국회의원 선거를 한 달여 앞두고 중앙선거관리위원회와 경찰, 각 정당이 딥페이크(AI 활용해 조작한 영상)물 등 가짜 콘텐트 걸러내기에 비상이 걸렸다. 정치인은 기자회견이나 방송 출연, 국회 상임위 발언 등 다양한 자료 영상을 확보하기 쉬워 딥페이크 영상을 이용한 불법 선거운동을 벌이기 쉬워 촉각을 곤두세우고 있는 것이다.

17098428988123.jpg

틱톡에 올라온 한동훈 비대위원장의 딥페이크 영상물. 영상 속 한동훈 위원장은 ″과연 민주당이 민주적인 정당이냐″, ″이재명 대표는 체포되는 게 그렇게 무서우세요?″ 등 비난하는 발언을 하고 있다. 틱톡 캡처

17098428989761.jpg

지난해 8월 틱톡의 한 계정에 올라온 윤석열 대통령의 딥페이크 영상. 영상 속 윤대통령은 이재명 더불어민주당 대표를 향해 ″재명아 민생은 내가 챙길테니 너는 네 건강이나 신경써″라고 말한다. 해당 계정은 윤 대통령 외에도 한동훈 국민의힘 비상대책위원장 등의 딥페이크 영상을 연달아 올렸다. 틱톡 캡처

실제 중앙선관위는 지난 1월 말부터 6일까지 총선 관련 딥페이크물 129건을 찾아내 삭제 조치했다. 하루에 세 개꼴로 정치인을 홍보하거나 반대 진영 정치인은 비난하는 내용의 딥페이크물을 지우고, 지워도 다음 날 또 다른 영상이 올라온다는 뜻이다. 포털사이트 등의 협조를 통해 게시글 작성자에게 연락해 ‘경고 조치’를 한 경우도 한 건 있었다. 적발된 불법 영상은 진짜 영상에 특정 정치인의 얼굴을 바꿔 넣는 ‘페이스 스왑’, ‘딥보이스’ 프로그램을 활용해 발언 내용만 바꾸는 ‘보이스 스왑’에서 완전히 새로운 딥페이크 영상을 만드는 방법까지 다양했다고 한다.

지난해 12월 28일 여야는 선거일 90일 전부터 선거운동을 위해 인공지능을 이용해 만든 딥페이크 영상을 제작·편집해 유포·게시할 수 없도록 하는 ‘딥페이크 선거운동 금지법’(공직선거법 개정안)을 통과시켰다. 새 법은 지난 1월 29일부터 시행됐다. 이를 위반하면 7년 이하 징역 또는 1000만원 이상 5000만원 이하 벌금형에 처한다. 서울시 선관위 관계자는 “선거를 앞두고 영상물이 더 많아질 것으로 예상해 각 시·도 선관위 담당자가 신경 써서 모니터링 하고 있다”고 설명했다.

17098428991606.jpg

딥보이스 사이트에서 한동훈 국민의힘 비상대책위원회 위원장 목소리를 복제하고 있는 모습. 딥보이스 사이트 캡처

딥페이크·딥보이스를 만드는 애플리케이션이나 웹사이트도 손쉽게 접할 수 있다. 기자가 딥보이스 서비스를 제공하는 한 사이트에 이 대표와 한 비대위원장 목소리로 선거운동을 하는 음성을 만들어보니, 5분도 채 걸리지 않았다. 두 사람의 음성 파일을 3~4개 정도 올리면 AI(인공지능)가 학습해 음성을 복제해주는 방식이다. 입력창에 글을 쓰면, 조작한 목소리로 내용을 읽어준다. 한 문장이 나오는 데엔 10초 정도, 문장 20여 개로 구성된 글도 1분 안에 변환됐다.

딥페이크 사진과 영상도 마찬가지다. 두 사람의 사진을 올리니 서로 악수하는 듯한 모습의 합성 사진이 금방 완성됐다. 유튜브 영상을 다운로드 받아 올리면 영상속 화자의 얼굴을 바꿀 수도 있었다. 여기에 딥보이스 기능까지 활용하면 한층 더 실제처럼 보인다. 정치인처럼 공개 영상이 많으면 조작물의 정확도도 높아진다. 이경무 서울대 전기정보공학부 교수는 “딥러닝의 특성상 자료가 많을수록 더 쉽고 정교하게 만들 수 있다”고 설명했다.

오는 21일 총선 후보자 등록이 시작되면서 경찰도 바빠졌다. 최근 경찰청 국가수사본부는 딥페이크 탐지 프로그램을 개발하는 등 관련 수사에 대비하고 있다. 해당 프로그램에 영상을 올리면 5~10분 안에 조작 여부를 알려준다. 탐지율은 80%에 달한다. 경찰청은 한국인 데이터 100만점과 아시아 계열 인종 데이터 13만점 등 관련 인물 5400명의 데이터 520만점을 바탕으로 탐지율을 높였다고 설명했다.

AI를 활용한 딥페이크물 외에 기존 사진·영상을 짜깁기 등으로 조작 편집한 영상도 문제다. 딥페이크 탐지 프로그램 등으로도 걸러지지 않고, 전문 기술자가 포토샵 등 프로그램으로 만들 경우 딥페이크물보다 덜 어색해 실제처럼 보일 확률도 높다. 현행법상 AI로 만든 딥페이크물이 아니더라도 가짜 영상을 선거운동에 활용될 경우 선거법상 허위사실공표죄나 정보통신망법상 허위사실 유포에 의한 명예훼손죄로 처벌받을 수 있다. 윤종빈 명지대 정치외교학과 교수는 “딥페이크 뿐 아니라 조작 편집한 영상도 명예훼손 등 심각한 선거 정보 혼탁을 초래할 수 있다”고 지적했다.

전문가들은 딥페이크·딥보이스 등 조작 영상을 막을 장치가 강화돼야 한다고 지적했다. 이경무 교수는 “AI에 대한 법적 규제는 전 세계적으로 함께 노력해야 하는 부분이라 시간이 걸릴 수밖에 없다”며 “AI임을 표시하는 워터마크를 다는 등의 장치가 필요하다”고 말했다. 유성진 이화여대 정치학과 교수는 “영국과 북유럽 등의 사례처럼 정당의 당규나 당헌에 가짜 영상을 사용하지 않겠다는 내용을 추가하는 등 정당 차원의 노력도 필요하다”고 말했다.

한편 서울경찰청은 최근 방송통신심의위원회가 차단한 윤석열 대통령의 ‘가짜 양심선언’ 영상을 만든 이를 특정하고 유포자 등을 수사하고 있다. 해당 영상은 AI로 만든 딥페이크가 아니라 과거 윤 대통령의 실제 토론회 영상을 구절 별로 잘라 짜깁기한 것으로 알려졌다. 경찰은 배후 세력이 있는 조직적인 범죄가 아닌, 개인의 소행으로 판단하는 것으로 전해졌다.

0
로그인 후 추천을 하실 수 있습니다.
SNS
댓글목록 0
등록된 댓글이 없습니다.
전체 27,557 건 - 1 페이지