[취재파일] 채식주의, 정치 극단주의, 그리고 유튜브

SBS D 포럼 연사탐구 ① - SNS 위험성 경고한 제이넵 투펙치

임태우 기자 eight@sbs.co.kr

작성 2019.10.19 10:13 수정 2019.10.20 13:20 조회수
프린트기사본문프린트하기 글자 크기
기사 대표 이미지:[취재파일] 채식주의, 정치 극단주의, 그리고 유튜브
여러분이 어느 날 다이어트를 해야겠다고 마음먹고 유튜브에서 '채식 식단'을 찾아본다고 상상해봅시다. 유튜브는 다양한 채식 메뉴와 조리법 등을 소개하는 콘텐츠를 보여줄 겁니다. 관련 영상을 몇 개 시청하다 보면 어느새 조깅이나 다이어트 운동법 등이 추천 영상란에 뜰 겁니다. 시청이 더 길어지면 울트라 마라톤이나 철인 3종 경기 영상까지 등장합니다.

유튜브 추천 알고리즘은 여러분의 취향을 처음 포착한 순간부터 좋아할 만한 콘텐츠를 찾아서 차례차례 보여주기 시작합니다. 이렇게 스스로 판단하는 알고리즘을 우리는 '인공지능'으로 부르기도 합니다.

문제는 여러분의 유튜브 시청 시간이 길어질수록 점점 자극적인 콘텐츠가 추천될 확률이 높아진다는 겁니다. 정치 콘텐츠를 예로 들어볼까요? 가령, 진보나 보수 성향의 정치 콘텐츠를 연달아 시청할수록 자동 재생이나 추천 영상란은 한층 더 과격하거나 극단주의적인 내용을 담은 콘텐츠들로 채워집니다. 이들 중 상당수는 맹목적으로 진영 논리를 설파하거나 정치적인 선동을 하는 내용으로, 실체적 진실과 거리가 먼 경우가 많습니다.SBS D 포럼(SDF) 연사탐구 제이넵 투펙치유튜브는 왜 이렇게 자극적인 콘텐츠를 추천하는 걸까요? 그래야만 사용자들의 시청 시간을 늘릴 수 있기 때문입니다. 사용자들이 점점 자극적인 콘텐츠에 중독될수록 광고에 노출되는 시간도 비례해 늘어나게 되고, 이는 결과적으로 유튜브에 큰 수익을 가져다줍니다.

물론 추천 알고리즘은 거대한 정보의 바다에서 개개인이 원하는 정보를 찾는 시간과 노력을 줄여준다는 측면에선 우리에게 이로움을 제공합니다. 하지만 이를 걱정스럽게 보는 시선도 존재합니다.

제이넵 투펙치(Zeynep Tufekci)는 알고리즘 기술이 지닌 위험성을 강도 높게 비판해온, 대표적인 미국 기술사회학자입니다. 그녀는 미국 노스캐롤라이나대 교수로, SNS나 알고리즘 등 IT 기술이 인간 사회에 부정적인 영향을 미칠 수 있음을 비판하는 TED 강연을 세 차례나 진행한 바 있습니다. 빅데이터, 알고리즘 등을 주제로 한 사회 공학 연구 분야에서 손꼽는 전문가로도 알려져 있습니다.'테드(TED)'에서 강연 중인 제이넵 투펙치투펙치는 지난해 3월 뉴욕타임스에 기고한 칼럼 'YouTube, the Great Radicalizer'를 통해 유튜브가 사람들을 '극단주의'에 빠져들게 하고 있다고 경고했습니다. 유튜브 알고리즘이 추천하는 콘텐츠 가운데 과격하거나 극단적인 내용을 담은 '음모론'이 많다는 겁니다. (칼럼 제목 'YouTube, the Great Radicalizer'는 '유튜브, 위대한 과격파 제조기' 정도로 해석될 수 있습니다.)

유튜브에서 질병을 예방하려고 백신에 대한 정보를 찾다 보면 얼마 안 가 백신이 정부와 제약회사의 거짓 합작품에 불과하다고 주장하는 '안티 백신' 음모론에 오히려 포위된다고 지적합니다. 이러한 음모론 콘텐츠는 전혀 사실이 아닌데도 사람들의 의심을 자극하고 불특정 다수를 쉽게 전염시킨다는 특징이 있습니다. 유튜브 장시간 시청자들은 진실을 다룬 콘텐츠보다 음모론에 더 솔깃할 수밖에 없다는 겁니다.

특히 지난해 미국 플로리다주 파크랜드에서 17명의 목숨을 앗아간 총기 난사 사건이 실제가 아닌, '연극'이었다고 주장한 유튜브 동영상은 대표적인 음모론 콘텐츠입니다. 사건 현장에서 살아남은 생존자가 알고 보니 '위기 연기자(crisis actors)'였더라는 허위 내용이었는데도 유튜브에 게재되자마자 삽시간에 인기 추천 콘텐츠로 급등했습니다. 비판이 불거지자 유튜브는 서둘러 해당 콘텐츠를 삭제했지만, 미국 사회에 남긴 부작용은 컸습니다.파크랜드 총기 난사 사건 현장에서 울부짖는 유족들 (사진=AP, 연합뉴스)이와 관련해 투펙치는 내가 보고 싶은 것만 보고 믿는 '확증편향'과 극단주의를 부추기는 알고리즘이 민주주의와 건전한 공론화를 저해할 수 있다고 지적합니다. 또, 이 시대가 갖춰야 할 기술 윤리와 새로운 시민 사회 운동의 필요성을 강조합니다.

"인공지능은 우리에게 윤리적인 고민을 건너뛸 수 있는 '공짜 티켓'을 준 게 아닙니다. 우리는 알고리즘을 의심하고 조사하고 검수하는 능력을 키워야 합니다. Artificial intelligence dose not give us a get out of ethics free card. We need to cultivate algorithm suspicion, scrutiny and investigation." (2016년 11월 TED 강연 'Machine intelligence makes human morals more important' 중)SBS D 포럼(SDF) 연사탐구 제이넵 투펙치올해 'SBS D 포럼'의 연사로 나설 투펙치는 지금까지 알고리즘에 대한 경각심을 일깨운 데에서 한 걸음 더 나아가 SNS를 비롯한 거대 디지털 공론장이 어떤 방식으로 사람들 의견을 양극화하고 집단이기주의를 강화하는지를 들려줄 예정입니다.

과거 그녀의 주요 비판 대상은 미디어 추천 알고리즘들이 사용자들을 폐쇄적인 생각에 갇히게 만드는 '메아리 방(echo chamber)' 효과, 즉 확증편향이었습니다. 하지만, 알고리즘만으로는 온라인 상에서의 갈등이 극화하는 과정을 모두 설명하진 못합니다. 이에 그녀는 알고리즘을 넘어서서 사용자 인터페이스 디자인과 플랫폼 수익 모델, 기능 등 종합적인 관점에서 온라인 여론을 양극화하는 메커니즘을 입체적으로 규명하려고 합니다.

매년 세계적인 연사들과 함께 하는 지식 나눔 프로젝트인 'SBS D 포럼'의 올해 주제는 '변화의 시작-이게 정말 내 생각일까?'입니다. 전 세계적으로 정치 사회 갈등이 심해지고 있는 가운데 한국 사회를 진단하고 기술과 사회, 정치, 문화 등 다양한 관점에서 해법을 모색하는 자리입니다. 오는 31일 8시30분 서울 동대문디자인플라자(DDP)에서 시작됩니다.SBS D 포럼(SDF) 연사탐구 제이넵 투펙치