유튜브 추천 알고리즘은 여러분의 취향을 처음 포착한 순간부터 좋아할 만한 콘텐츠를 찾아서 차례차례 보여주기 시작합니다. 이렇게 스스로 판단하는 알고리즘을 우리는 '인공지능'으로 부르기도 합니다.
문제는 여러분의 유튜브 시청 시간이 길어질수록 점점 자극적인 콘텐츠가 추천될 확률이 높아진다는 겁니다. 정치 콘텐츠를 예로 들어볼까요? 가령, 진보나 보수 성향의 정치 콘텐츠를 연달아 시청할수록 자동 재생이나 추천 영상란은 한층 더 과격하거나 극단주의적인 내용을 담은 콘텐츠들로 채워집니다. 이들 중 상당수는 맹목적으로 진영 논리를 설파하거나 정치적인 선동을 하는 내용으로, 실체적 진실과 거리가 먼 경우가 많습니다.
물론 추천 알고리즘은 거대한 정보의 바다에서 개개인이 원하는 정보를 찾는 시간과 노력을 줄여준다는 측면에선 우리에게 이로움을 제공합니다. 하지만 이를 걱정스럽게 보는 시선도 존재합니다.
제이넵 투펙치(Zeynep Tufekci)는 알고리즘 기술이 지닌 위험성을 강도 높게 비판해온, 대표적인 미국 기술사회학자입니다. 그녀는 미국 노스캐롤라이나대 교수로, SNS나 알고리즘 등 IT 기술이 인간 사회에 부정적인 영향을 미칠 수 있음을 비판하는 TED 강연을 세 차례나 진행한 바 있습니다. 빅데이터, 알고리즘 등을 주제로 한 사회 공학 연구 분야에서 손꼽는 전문가로도 알려져 있습니다.
유튜브에서 질병을 예방하려고 백신에 대한 정보를 찾다 보면 얼마 안 가 백신이 정부와 제약회사의 거짓 합작품에 불과하다고 주장하는 '안티 백신' 음모론에 오히려 포위된다고 지적합니다. 이러한 음모론 콘텐츠는 전혀 사실이 아닌데도 사람들의 의심을 자극하고 불특정 다수를 쉽게 전염시킨다는 특징이 있습니다. 유튜브 장시간 시청자들은 진실을 다룬 콘텐츠보다 음모론에 더 솔깃할 수밖에 없다는 겁니다.
특히 지난해 미국 플로리다주 파크랜드에서 17명의 목숨을 앗아간 총기 난사 사건이 실제가 아닌, '연극'이었다고 주장한 유튜브 동영상은 대표적인 음모론 콘텐츠입니다. 사건 현장에서 살아남은 생존자가 알고 보니 '위기 연기자(crisis actors)'였더라는 허위 내용이었는데도 유튜브에 게재되자마자 삽시간에 인기 추천 콘텐츠로 급등했습니다. 비판이 불거지자 유튜브는 서둘러 해당 콘텐츠를 삭제했지만, 미국 사회에 남긴 부작용은 컸습니다.
"인공지능은 우리에게 윤리적인 고민을 건너뛸 수 있는 '공짜 티켓'을 준 게 아닙니다. 우리는 알고리즘을 의심하고 조사하고 검수하는 능력을 키워야 합니다. Artificial intelligence dose not give us a get out of ethics free card. We need to cultivate algorithm suspicion, scrutiny and investigation." (2016년 11월 TED 강연 'Machine intelligence makes human morals more important' 중)
과거 그녀의 주요 비판 대상은 미디어 추천 알고리즘들이 사용자들을 폐쇄적인 생각에 갇히게 만드는 '메아리 방(echo chamber)' 효과, 즉 확증편향이었습니다. 하지만, 알고리즘만으로는 온라인 상에서의 갈등이 극화하는 과정을 모두 설명하진 못합니다. 이에 그녀는 알고리즘을 넘어서서 사용자 인터페이스 디자인과 플랫폼 수익 모델, 기능 등 종합적인 관점에서 온라인 여론을 양극화하는 메커니즘을 입체적으로 규명하려고 합니다.
매년 세계적인 연사들과 함께 하는 지식 나눔 프로젝트인 'SBS D 포럼'의 올해 주제는 '변화의 시작-이게 정말 내 생각일까?'입니다. 전 세계적으로 정치 사회 갈등이 심해지고 있는 가운데 한국 사회를 진단하고 기술과 사회, 정치, 문화 등 다양한 관점에서 해법을 모색하는 자리입니다. 오는 31일 8시30분 서울 동대문디자인플라자(DDP)에서 시작됩니다.