목소리도 행동도 똑같아…진짜 같은 가짜 '딥페이크'

엄민재 기자 happymj@sbs.co.kr

작성 2018.07.05 21:31 수정 2018.07.05 22:07 조회수
프린트기사본문프린트하기 글자 크기
<앵커>

오바마 전 미국 대통령이 진지한 표정으로 연설하고 있습니다. 그런데 "dipshit" 쓸모없는 사람이라며 갑자기 트럼프 대통령을 비난합니다. 정말일까요. 사실 지금 보신 건 가짜 영상입니다. 지난 4월 미국의 한 온라인 매체가 인공지능, AI를 이용해 만든 겁니다. AI가 성대모사 배우의 목소리와 표정에 오바마의 얼굴을 합성한 건데 이렇게 영상을 교묘하게 합성하는 인공지능 기술을 '딥페이크'라고 합니다. 이 '딥페이크'를 이용해 가짜 뉴스보다 더 무서운 이런 가짜 영상까지 누구나 만들 수 있는 시대가 됐습니다.

먼저 엄민재 기자가 보도합니다.

<기자>

트럼프 대통령의 말과 행동, 습관까지 따라 하는 이 동영상, 배우 알렉 볼드윈과 트럼프를 딥페이크 기법으로 합성한 것인데 표정 변화가 너무나 정교하고 자연스럽습니다.

인질 협상을 하고 고대 문물을 찾아다니며 여장까지 한 배우 니콜라스 케이지 모두 실제 출연하지 않은 장면에 얼굴만 합성한 겁니다.

컴퓨터가 마치 사람처럼 데이터를 축적하며 학습하는 딥러닝 기술, 알파고와 이세돌 대국으로 친숙해진 이 딥러닝 기술이 딥페이크를 탄생시켰습니다.

[김형철/정보통신기술진흥센터 AI 프로그램매니저 : 사람의 특성을 뭐라고 우리가 설명해주지 않아도 사람의 얼굴이다는 걸 알려주면 그 특성들을 프로그래밍을 스스로 하는 겁니다, 딥러닝이.]

최근에는 사람 목소리까지 똑같이 흉내 내는 인공지능도 등장했습니다.

[듀플렉스 : 안녕하세요. 여성 고객의 미용 예약을 위해 전화를 했는데요.]

음, 허 같은 말 추임새까지 구사하는 이 인공지능은 지난 5월 구글이 개발한 듀플렉스입니다.

네이버도 4시간 분량의 음성 샘플만 있으면

[같은 목소리네? (그런가요?)]

어떤 목소리든 따라 할 수 있는 기술을 선보였습니다.

그렇다면 이런 딥페이크 기술을 어떻게 구별할 수 있을까? 정부에서 주최한 합성사진 찾기 경진 대회장.

인공지능이 만든 가짜 사진 수 천장 중에서 진짜와 가짜를 가려내는 대회입니다.

참가자들에게 기자의 사진을 합성해 보여줬습니다.

[참가자 A : 4번이 가짜.]

[참가자 B : 진짜지 않을까 생각하고 있습니다.]

[참가자 C : 4번을 가짜로 하고.]

제 무표정한 얼굴에 웃는 입 모양을 합성했는데도 사람은 물론 인공지능도 쉽게 구분해내지 못했습니다.

사진이나 영상을 구별해내는 작업이 그만큼 쉽지 않다는 겁니다.

딥페이크 기술이 오픈 소스로 외부에 공개되면서 이제는 일반인들도 손쉽게 사진이나 영상을 합성할 수 있습니다.

인공지능이 만들어낸 진짜 같은 가짜 영상들, 또 다른 인공지능을 써야만 가짜를 겨우 가려낼 수 있는 세상에 살게 된 것입니다.

(영상편집 : 오영탁, VJ : 오세관·정영삼, 화면출처 : 유튜브)   

▶ 몇 시간이면 '합성 음란물' 뚝딱…피해 느는데 처벌은?