▲ 부르즈 할리파 공습 AI 사진
미국·이스라엘이 대(對)이란 전쟁에 나선 뒤 사회관계망서비스(SNS)에 무력 충돌과 관련한 각종 사진과 영상이 퍼지고 있습니다.
문제는 인공지능(AI)으로 생성한 가짜 사진·동영상이나 이번 전쟁과 관련 없는 과거 이미지가 섞여 있다는 점입니다.
기존 이미지를 AI로 과장하거나 맥락을 조작한 것도 있습니다.
미국·이스라엘의 이란 공격 첫날인 지난달 28일 페이스북 등 SNS에서는 아랍에미리트(UAE)의 두바이의 세계 최고층 건물 부르즈 할리파(828m)가 드론 공습을 받는 동영상과 사진이 여러 버전으로 퍼졌습니다.
그러나 이 이미지는 가짜로 판명됐습니다.
영국의 팩트체크 전문 비영리단체인 풀팩트(Full Fact)는 "부르즈 할리파가 공격받았다고 신뢰할만한 어떠한 기사나 사진, 영상이 없다"며 "확인 결과 AI로 생성되거나 변경된 이미지라서 가짜"라고 밝혔습니다.
이달 1일 이란 이슬람혁명수비대(IRGC)는 중동 오만만에서 작전 중인 미군 항공모함 에이브러햄 링컨함을 타격했다고 주장했습니다.
이와 관련해 중국의 SNS인 웨이보(微博·중국판 엑스)와 더우인(틱톡의 중국판) 등에는 링컨함이 미사일 타격을 받는 동영상이 퍼졌습니다.
이에 미군 측은 "거짓말"이라며 "미사일은 가까이 오지도 못했다"고 공식적으로 반박했습니다.
해당 동영상은 일반인이 봐도 폭격과 동시에 전투기가 날아가는 모습 등이 조악한 수준이었지만 널리 퍼졌습니다.
과거 영상을 최근 것으로 둔갑시키는 사례도 있습니다.
최근 '이스라엘 상공에 떨어지는 이란 미사일'이라고 공유된 동영상은 미국의 통신사 AP가 확인한 결과 알제리 축구팀의 기념행사를 촬영한 것으로, 2024년 8월에 온라인에 처음 올라왔습니다.
지난 2일 페이스북에 '이란 미사일이 이스라엘 텔아비브를 타격하는 모습'이라고 올라온 동영상도 구글에서 역방향 이미지 검색 결과 작년 1월 멕시코 북서부에서 발생한 카지노 화재 영상으로 판명됐습니다.
기존 사진을 AI로 조작하는 경우도 있습니다.
예멘 국영통신사 사바(SABA)는 이라크의 시아파 친이란 민병대 '사라야 아울리야 알-담'(Saraya Awliya al-Dam)이 "지난 일요일(1일) 이라크 북부의 미군 주둔 에르빌 기지를 드론과 미사일로 공격했다"는 성명을 냈다고 보도했습니다.
이와 관련해 X(옛 트위터)에는 에르빌 기지가 공격받은 모습이라며 화염과 함께 연기가 치솟은 사진이 공유됐습니다.
이후 인스타그램 등에는 같은 사진인데 AI를 이용해 화염과 연기를 훨씬 큰 규모로 조작한 사진이 퍼졌습니다.
미국의 공습으로 사망한 이란 최고지도자 하메네이가 공습으로 무너진 건물 더미에 깔린 사진도 SNS에 퍼졌습니다.
해당 사진을 구글팩트체크(goo.gle/factcheck) 사이트에 업로드한 뒤 '모든 언어'로 검색해보니 'False'(거짓)로 판별됐습니다.
구글의 생성형 AI 모델인 제미나이에 같은 사진을 올리고 진위 검증을 요청하니 "구글 AI 기술을 통해 생성되거나 수정된 것으로 확인됐다"고 답변했습니다.
제미나이는 "이미지에 삽입된 디지털 워터마크(SynthID)를 감지해 내린 결론이며 시각적으로 몇 가지 부자연스러운 부분도 관찰된다"고 덧붙였습니다.
구체적으로 ▲ 구조 대원의 손이나 도구 위치, 잔해 아래에 있는 남성의 손 모양이 다소 어색하게 묘사됨 ▲ 현장의 손전등 등 광원과 그에 따른 그림자의 방향이 물리적으로 일관되지 않은 부분이 보임 ▲ 잔해의 질감이나 배경의 불꽃이 실제 사진이라기보다는 그래픽적인 느낌이 강하다고 설명했습니다.
전문가들은 일반인들도 조금만 신경 쓰면 사진과 영상의 진위를 확인할 수 있다고 말합니다.
비가시성(눈에 보이지 않는) 워터마크 기술기업인 스냅태그의 민경웅 대표는 일반인이 가짜 콘텐츠를 구별할 수 있는 방법으로 최초 출처 확인과 언론 보도 여부 확인, 이미지 역검색 활용 등 세 가지를 꼽았습니다.
민 대표는 "사진·영상의 최초 업로드 계정이 어디인지, 계정 생성 시점은 언제인지, 과거 게시물은 어떤 성향이었는지 등을 통해 신뢰할 수 있는 출처인지 확인하는 게 중요하다"며 "가짜가 아니라면 CNN, 로이터 등 주요 언론이 몇 시간 안에 보도한다"고 설명했습니다.
이어 "구글 이미지 역검색 등 검증 도구를 사용하면 가짜 여부를 확인할 수 있다"고 덧붙였습니다.
검증 도구로는 구글팩트체크·구글 이미지 역검색·제미나이와 함께 틴아이(TinEye), 인비드(InVID), 하이브 AI 디텍터(Hive AI detector), AI 오어 낫(AI or Not), 리얼리티 디펜더(Reality Defender) 등이 사용됩니다.
한 사진 전문가는 "너무 근사한 이미지나 물리적ㆍ해부학적으로 불가능한 모습, 그림자 방향의 불일치, 안경과 귀걸이 등 장신구의 좌우 대칭 여부, 머리카락과 손가락 표현에 이상한 점이 보이면 가짜인지 의심해야 한다"고 말했습니다.
그러나 AI가 생성ㆍ조작한 이미지에 인간의 개입이 더해지면 검증이 복잡해집니다.
최병호 고려대학교 휴먼 인스파이어드 AI 연구원 연구교수는 "이러한 검증의 전제는 AI가 생성하고 사람이 손대지 않았을 때"라며 "AI가 만들면 패턴이 있는데, 만약에 사람이 손을 대면 패턴이 무력화돼 검증을 위한 비용과 시간이 더 필요해진다"고 덧붙였습니다.
최 교수는 이어 "상당수 일반인은 'AI 리터러시'가 형성되지 않아 온라인의 사진과 동영상을 비판 없이 수용할 가능성이 크다"며 "정부·시민단체·언론사에서 검증해 '거짓이니까 믿지 말라'고 공신력 있게 말해주지 않으면 일반인이 능동적으로 진위를 파악하기는 쉽지 않다"고 말했습니다.
이처럼 전쟁 관련 가짜 이미지와 영상이 범람하는 이유에 대해 최 교수는 '정보전'과 '영리 목적'을 꼽았습니다.
그는 "전쟁에서 적군을 교란할 때 가장 설득력이 높은 것이 영상과 이미지"라며 "영리 목적의 경우 SNS 계정 소유자들이 전쟁을 틈타 트래픽을 증가시켜 수익을 올리려는 것"이라고 설명했습니다.
최 교수는 "현재 전쟁 관련 SNS 콘텐츠 생산자는 압도적인 양과 빠른 속도로 여론몰이할 가능성이 크다"고 덧붙였습니다.
충격적이고 자극적인 콘텐츠를 빠르게 확산하는 SNS 플랫폼 알고리즘의 특성상 가짜 영상이 실제 뉴스보다 먼저 퍼지는 현상이 발생한다는 분석도 나옵니다.
민 대표는 "전쟁 상황에서는 정보 공백이 매우 크다. 특히 이란처럼 정보가 통제된 환경에서는 현장 영상이나 공식 자료가 제한적"이라며 "이 때문에 사람들은 SNS에 올라오는 목격자 영상이나 확인되지 않은 콘텐츠에 의존하게 된다"고 말했습니다.
이어 "과거에는 가짜 이미지를 만드는 데 기술과 시간이 필요했지만 지금은 AI로 몇 분 만에 폭격 장면이나 전투 장면 같은 콘텐츠를 생성할 수 있다"며 "제작 비용과 시간이 거의 들지 않기 때문에 가짜 정보가 대량으로 만들어지고 확산할 수 있는 환경이 만들어졌다"고 덧붙였습니다.
그는 "딥페이크(허위영상)나 가짜 콘텐츠 확산을 줄이기 위해서는 기술적 출처 증명 수단 도입이 중요하다"며 "비가시성 워터마크처럼 콘텐츠 생성 단계에서부터 AI 생성 여부와 출처를 심는 '사전 식별 기술'이 최근 주목받고 있다"고 전했습니다.
일부 SNS 플랫폼들도 가짜 영상을 방지하기 위한 조치를 내놓고 있습니다.
X는 이번 전쟁이 발생한 이후 전쟁 관련 AI 생성 영상을 출처 표기 없이 게시할 경우 수익 공유를 중단한다고 발표했습니다.
(사진=페이스북 캡처, 연합뉴스)
동영상 기사
동영상 기사
동영상 기사
동영상 기사
댓글