동영상
<앵커>
AI 기술 발전의 여러 부작용들 앞서 짚어봤었는데, 오늘(1일)은 마지막 순서로 이 문제를 어떻게 대처해야 할지 고민해 보겠습니다. 빠르게 발전한 AI가 범죄에 쓰이며 수많은 피해자들을 낳고 있지만, 이걸 누가, 어떻게 책임져야 하는가에 대한 논의는 기술 발전의 속도를 따라오지 못하고 있는데요.
AI 산업을 주도하는 미국에서는 어떻게 하고 있는지 홍영재 기자가 취재했습니다.
<홍영재 기자>
브리즈 리우 씨는 대학생이던 4년 전, 자신도 모르는 사이 딥페이크 포르노 동영상의 희생자가 됐다는 걸 알았습니다.
절망 속에 경찰에 신고했지만,
[브리즈 리우/딥페이크 피해자 : 경찰이 제게 매춘을 한 적이 있느냐고 물었어요. 딥페이크 제작자가 저의 일부를 죽이고, 경찰이 다시 저를 죽인 셈이죠.]
리우 씨 얼굴을 합성한 800여 개의 영상을 게재한 사이트들이 마이크로소프트의 서버를 이용하고 있다는 걸 알고 삭제 요청도 했습니다.
[브리즈 리우/딥페이크 피해자 : (마이크로소프트는) 오랫동안 삭제 요청을 거부했어요. (영상 속 인물이) 저인지 확신할 수 없다고 말할 때도 있었고, 삭제할 기술이 없다고 말하기도 했어요.]
그로부터 2년 뒤 스타트업을 창업한 그는 딥페이크를 찾아내 플랫폼에 삭제 요청을 하는 서비스를 개발하고 있습니다.
그만의 방식으로 AI 범죄에 맞선 겁니다.
그리고 지난해 10월 바이든 대통령 옆에 섰습니다.
AI 안전 기준을 세우고 시민 권리를 보호하기 위한 행정명령에 서명하는 자리였습니다.
[조 바이든/미국 대통령 : 딥페이크 기술은 AI로 생성된 오디오와 비디오를 사용해 평판을 훼손하고, 가짜 뉴스를 퍼트리며 사기를 저지르고 있습니다.]
지금 보고 계신 이 문구들, 동의받지 않은 딥페이크 합성물을 만들어주는 웹사이트들의 홍보 문구입니다.
샌프란시스코시 조사에 따르면 이런 딥페이크 웹사이트 16곳 방문 횟수는 올해 상반기에만 2억 건이 넘었습니다.
두 달 전 샌프란시스코시 당국은 이들 16개 딥페이크 사이트를 상대로 소송을 제기했습니다.
[데이비드 치우/샌프란시스코 시 변호사 : 저희가 소송을 제기한 이유는 피해자들이 거의 아무런 대응 수단을 갖지 못하고 있다는 사실을 깨달았기 때문이죠. 우리(당국)는 법원 명령을 통해 인터넷 서비스 제공업체 등의 정보를 제출받을 수 있는 조사 권한을 가지고 있습니다.]
미국 정부 기관이 딥페이크 업체를 상대로 제기한 첫 소송입니다.
국경 없는 딥페이크 범죄를 막기 위해 국제 공조도 시도할 계획입니다.
[데이비드 치우/샌프란시스코 시 변호사 : 저는 우리의 소송과 다른 법 집행 기관들, 그리고 세계 각지에서 제정되고 있는 법들이 이 문제를 해결할 수 있기를 바랍니다.]
미국 정부 기관들은 더 이상 AI 오용에 대한 대처를 시민 개인에게 떠넘기지 않으려는 듯 보입니다.
남은 건 AI를 개발하고 서비스하며 막대한 돈을 벌고 있는 빅테크들의 윤리와 책임입니다.
[브리즈 리우/딥페이크 피해자 : 저는 빅테크들이 올바른 일을 할 수 있는 기술을 가지고 있다고 믿습니다. 문제는 그들이 그걸 실행하려는 의지가 있느냐는 거죠. 그렇지 않나요?]
(영상취재 : 하 륭, 영상편집 : 원형희, 디자인 : 최재영)
---
<앵커>
AI 기술이 이렇게 여러 문제를 낳고는 있지만, 이게 주는 편리함도 무시할 수 없다는 목소리도 많습니다. 그렇다면 AI가 우리를 돕는 '유용한' 도구로만 기능을 하게 하려면 이걸 만드는 인간들은 어떤 고민을 해야할 지, 세계적인 석학들을 만나 이야기를 들어봤습니다.
이어서 엄민재 기자입니다.
<엄민재 기자>
사용자 명령에 따라 직접 검색 사이트를 열고, 커서를 움직여 웹사이트를 클릭하고,
[뭔가를 찾은 것 같네요. 좋아요.]
지도에서 경로를 확인한 뒤, 일출을 볼 수 있는 최적의 장소, 시간, 복장 등을 추천해 이메일로 보내줍니다.
스스로 컴퓨터를 조작하고 판단까지 하는 AI 기술입니다.
앤스로픽에 이어 구글과 오픈AI 등도 이렇게 '컴퓨터를 사용할 줄 아는 AI 비서'를 곧 내놓을 예정입니다.
빅테크들이 AI 기술 수준을 과시하고, 젠슨 황은, 또 머스크는, 인간 지능을 뛰어넘는 일반인공지능, AGI의 시대가 곧 도래할 것처럼 끊임없이 기대와 공포를 주입합니다.
스튜어트 러셀 버클리대 교수, 인류 역사상 가장 큰 투자가 필요하게 된 AI 산업이 돈을 끌어모으기 위한 전략으로 봅니다.
더 많은 자본 유치를 위해 기술 개발에 매달리고, 'AI 안전'은 뒷전으로 밀고 AI에 대한 규제에 완강히 반대한다는 겁니다.
[스튜어트 러셀/UC버클리대 교수 : 우리는 지금 전투의 한가운데에 있습니다. AI 안전을 주장하는 진영은 몇백 명에 불과하지만, 기업들은 15조 달러의 자산을 가지고 있습니다. 누가 이길지 지켜봐야 할 겁니다.]
제임스 랜데이 스탠퍼드대 교수.
AI에 대한 낙관, 또는 비관에 앞서 당장 우리가 맞닥뜨린 현실의 문제들에 집중해야 한다고 했습니다.
[제임스 랜데이/스탠퍼드대 교수 : 이런 복잡한 문제를 해결하기 위해서는 다양한 접근이 필요합니다. (AI가 초래한) 차별이나 기술의 남용과 같은 문제들에 있어서 단 하나의 해결책, '은탄환'은 없습니다.]
이들이 얘기하는 해법은 자본의 속도에 매몰되지 않는 것.
즉, AI 시스템을 인간의 가치와 의도, 윤리와 일치시키려는 의지입니다.
[스튜어트 러셀/UC버클리대 교수 : 우리는 '레드 라인'이라는 개념을 요구하고 있습니다. AI 시스템이 절대로 스스로 복제되지 않으며 다른 컴퓨터 시스템을 침범하지 않고 절대로 인간을 해치지 않을 것이라는 공식적인 보장을 해야 한다는 겁니다.]
[제임스 랜데이/스탠퍼드대 교수 : 더 나은 교육을 통해 대중이 무엇을 사용하고 있는지 이해하게 하고 (AI 개발자들에게도) 더 나은 설계와 기술을 요구함으로써 일부 문제를 줄일 수 있지만, 어떤 일들은 여전히 발생할 수 있고 그런 경우 법과 규제를 통한 제재가 필요합니다.]
인간을 돕는 도구로서의 AI 개발을 장려하면서 통제권을 잃지 않는 어려운 과제가 우리 앞에 놓여 있습니다.
(영상취재 : 황인석, 영상편집 : 윤태호, 디자인 : 장예은)
※본 보도는 한국언론진흥재단의 정부광고 수수료를 지원받아 제작되었습니다.