뉴스

SBS 뉴스 상단 메뉴

[스프] 인공지능 전쟁에 참전한 세력들 모두가 추구하는 그것

[뉴욕타임스 칼럼] The A.I. Wars Have Three Factions, and They All Crave Power, By Bruce Schneier and Nathan Sanders

스프 nyt 썸네일
 
*브루스 슈나이어는 안보 기술 전문가로 하버드 케네디 스쿨에 출강한다. 네이선 샌더스는 하버드대학교 버크먼 클라인 센터 소속의 데이터 과학자다.
 

인공지능의 잠재적인 파괴력에 대해 경고하는 연구자나 업계의 거물은 셀 수 없이 많다. 관련 기사를 읽다 보면, 급속도로 발전하는 AI 기술의 위험에 대한 공동 인식, 나아가 그 위험을 최소화하기 위한 노력으로 이어졌으면 하는 바람이 자연히 생긴다.

그러나 불행히도 현실은 사뭇 다르다. AI에 대한 모든 증언과 선언, 블로그 글과 공개 선언 아래는 극명하게 갈리는 진영 간의 치열한 권력 싸움이 자리하고 있다. 일부는 과학소설처럼 들리는 먼 미래의 위험을 걱정한다. 어떤 이들은 챗봇과 딥페이크 영상 제조기가 현재 유발하고 있는 실질적인 문제에 대해 진심으로 경고한다. 잠재적인 사업성에 관심을 두는 이들, 국가 안보 문제를 우려하는 이들도 있다.

그 결과 우리는 현재 정치와 경제, 나아가 우리의 일상을 바꾸어 놓을 것이 분명한 기술에 대한 정확한 이해를 방해하는 아리송한 언어의 불협화음, 서로 모순되는 시각, 그리고 도발적인 정책 제안의 홍수 속에 살고 있다.

이 세력들은 대중뿐 아니라 자기들끼리도 대화를 나눈다. 때로는 편지나 사설, 소셜미디어 게시물 타래를 교환하며 자신의 주장을 밝히고 상대방을 공개적으로 공격하기도 한다. 대안을 인정하지 않은 채 자신의 시각만 앞세운 나머지, 자신의 주장이 AI에 관한 사안을 바라보는 유일한 틀이 되어야 한다는 계몽주의적 인상을 주기도 한다. 정책 입안자와 대중이 자기주장의 진정한 의미를 파악하지 못한다면 앞으로 규제와 문화 부문에서 실질적인 대가를 치르게 될 거라는 경고가 들리는 이유도 이 때문이다.
 
이 싸움과 그것이 우리의 미래에 미칠 영향을 이해하려면 각 진영이 당장 하는 말과 행동을 넘어 이들의 시각에 담긴 더 큰 의미를 살펴봐야 한다. 그래야만 이것이 실제로는 AI에 대한 토론이 아니라, 통제와 권력, 자원의 분배와 책임 소재를 둘러싼 투쟁임을 간파할 수 있다.

혼란스러운 말다툼의 이면에서는 우리 사회의 미래가 달린 거대한 전쟁이 벌어지고 있다. 대량 실업의 디스토피아를 피하는 것을 우선해야 할까? 중국이 지배적인 슈퍼파워가 되는 세상을 막는 것? 아니면 인류 최악의 모습이 우리 삶을 지배하는 불투명한 알고리듬을 통해 실현된 세상을 막는 것? 이미 화성 식민지 개발을 염두에 두고 기후 변화의 위험성을 깎아내리는 부유한 미래주의자들의 말을 들어야 할까? 우리가 듣는 이야기 뒤에 숨은 이데올로기를 인식하는 것이 매우 중요하다. 이 갈등을 해소하기 위해서는 AI의 허상을 꿰뚫어 보고 우리가 추구하는 인간성의 가치에 충실해야만 한다.

다양한 선언 뒤에 숨은 의도를 해독하는 한 가지 방법은 이들의 언어를 살펴보는 것이다. 언어 그 자체가 전장의 일부이기 때문에 AI 전쟁에 참여한 세력들은 각자의 입장을 이야기할 때 서로 다른 용어를 사용하는 경향이 있다. 어떤 진영은 AI의 위험성을 안전의 문제로, 또 다른 세력은 윤리와 원칙의 문제로, 또 다른 이들은 안보와 경제의 문제로 설명하려 한다. 화자가 누구인지, AI를 어떻게 묘사하고 있는지를 파헤쳐 보면 이들이 무엇이 다른지, 각각의 동기는 무엇인지 알 수 있다.
 

종말론자 진영

가장 흔히 접할 수 있는 이야기는 AI가 인류에 존재론적 위협이 되어 지구상의 모든 생명체를 끝장낼 수 있다는 무시무시한 디스토피아 버전의 미래다. 이 시각에 따르면 AI는  신과 같은 초지능적, 통제 불가의 존재로 모두 위에 군림하며, 모든 것을 통제할 수 있다.  핵무기에 버금가는 위협인 AI는  인류의 종말을 가져올 수도 있다. 우리가 각별한 주의를 기울이지 않으면, AI가 인류를  모두 죽이거나 노예로 삼을 수 있다. 러브크래프트 소설에 등장할 법한 괴물, 자신의 창조주를 상대로 반란을 일으키는 로봇, 주입된 목표를 실행하기 위해 지구의 모든 자원을 삼켜버리는  존재인 것이다. 과학소설에나 나올 법한 이야기 같지만, 이런 이야기를 하는 사람들은 사뭇 진지하고 자신이 하는 말을 진심으로 믿고 있다.

이들은 이른바 ‘AI 안전제일’ 진영으로,  AI의 대부로 불리는  제프 힌튼, 요슈아 벤지오 같은 인물이 여기에 해당한다. 이 선구자들은 컴퓨터 따위가 인간을 흉내 낼 수 있음을 의심하는 사람들과 오랫동안 논쟁해 왔다. 챗GPT와 같은 대규모 언어 모델을 비롯한 여러 AI 프로그램이 점점 더 놀라운 성과를 내자, 이들은 공공의 담론을 주도할 수 있었고, 자신들의 창조물에 한계가 없다고 마음속 깊이 믿고 있는 듯하다.

이들의 무시무시한 예언은 이 대화를 이끌어갈 능력이 있는 테크 부문의 엘리트 계급에 의해 더욱 힘을 받고 있다. 그중 일부는 급진적인 이타주의 운동과 관련된 장기주의(long-term-ism)에 고무되어, 가장 극단적인 위험에 집중하고 우리 행동이 가져올 머나먼 미래의 결과를 강조한다. 이 철학은 암호화폐 무리 사이에서 인기가 많은데, 일례로 불명예를 떠안은 전 억만장자  샘 뱅크먼프리드 같은 인물은 한때 대의를 추구하는 과정에서 큰 부를 손에 넣기도 했었다.

표면적으로는 합리적으로 보이지만, 이런 아이디어는 극단적인 논리로 확장됐을 때 위험해질 수 있다. 독단적인 장기주의자들은 AI의 인간 노예화와 같이 예언된 사태를 막기 위해서라면, 오늘을 살아가는 사람들의 안녕을 기꺼이 희생하려 들 것이다.

종말론자들은 자신들이 합리적으로 행동한다고 말하지만, 가상의 실존적 위협에 대한 이들의 과대광고는 미래에 대한 잘못된 예측으로 이어질 수 있다.  일론 머스크는 장기주의 명분을 내세워 우리 사회가 최고의 문화와 지능을 가진 사람들(말하자면 자신의 초부유층 친구들)의 재생산을 장려해야 한다고 믿는 것으로 알려졌다. 나아가 머스크는 자녀를 가진 사람들에게만  투표권을 주고  화성 이민을 추진하고 싶어 한다. AI 안전 문제를 연구하는  유명 기관의 공동 설립자이자 부유한 장기주의자인  얀 탈린은 AI가 가져올 먼 미래의 알려지지 않은 위험성에 비해 기후 변화는  별 문제가 아니라는 식으로 말했다고 알려져 논란이 되기도 했다. 기술역사학자  데이비드 C. 브락은 이런 공포가 “희망 섞인 걱정”이라며, “현재의 실질적인 고통과 대조적으로, 있었으면 싶은 문제”라고 주장한다.

실제로 이 진영의  많은 연구자는 AI 개발에 전력을 다하고 있다. 기술 발전을 그냥  잠깐 멈춘다는 것이 얼마나 비현실적인지 보여주는 대목이다. 그러나 로봇학자 로드니 브룩스는 존재론적 위협이 다가오는 것을 우리가 볼 수 있을 것이고, 변화가 급작스럽게 찾아오지는 않을 것이므로 얼마든지 노선을 바꿀 여유가 있을 거라고  지적한다. 영화 시나리오 같은 악몽을 완전히 무시해서도 안 되지만, AI의 잠재적인 이점 역시 균형감을 잃지 않고 고려해야 한다. 중요한 것은 두려움이 당장의 문제를 해결하는 데 전략적인 방해 요소가 되어서는 안 된다는 점이다. 종말론적 예언에 압도당해 중요한 가드레일을 설치할 수 있는 시간과 기회를 낭비해선 안 된다.

 

개혁론자 진영

종말론자들은 머나먼 미래에 집중하지만, 종말론에 맞서는 가장 큰 세력은 ‘지금, 여기’에 집중한다. 우리는 이미 우려할 만한 일이 많이 일어나고 있다는 이들의 지적에 동의한다. 유색인종을 더 많이 체포하고 처벌하는  인종차별적 경찰 및 사법 시스템, 여성의 이력서에 점수를 더 박하게 매기는  성차별적 노동 시스템, 제국주의의 도구로 자동화된  군사 개입을 활용하고, 어쩌면 곧  살인용 로봇 병기를 도입할지 모르는 초강대국들 모두 문제다.

종말론적, 존재론적 위협을 경고하는 이들에 맞서는 진영의 대안 역시 비슷한 버전의 디스토피아다. 인간이 가진 최악의 본능이 기계에 코딩되어 실행되는 사회다. 종말론자들은 AI에 의한 노예화가 매트릭스 같은 모습일 거라고 주장하는 한편, 개혁론자들은 오픈AI가 케냐에서  저임금으로 고용하고 있는 계약직 노동자들에 주목한다.

메레디스 브루사드사피야 우모자 노블루먼 차우더리캐시 오닐 등 AI의 윤리 문제를 앞세우는 이들은 AI에 내재한 불평등의 문제를 수년간 경고해 왔다. 정확한 통계는 없지만, 이 진영의  지도자들 가운데 유색인종, 여성, 그리고 성소수자가 많다는 것은 주목할 만하다. 이들은 알고리듬의 억압을 당하는 쪽의 감정이나 신기술의 오용에 가장 취약한 사람들에게서 통찰을 얻고 행동의 동기를 얻는다. 다수는 명백히 사회적인 관점을 취하고 있다.  조이 부올라뮈니는 더욱 평등한 AI를 위해  ‘알고리듬 정의 연대(Algorithmic Justice League)’라는 이름의 단체를 설립했다. 루하 벤자민의 단체는  ‘아이다 B. 웰스 정의 데이터 연구소(Ida B. Wells Just Data Lab)’라 불린다.

AI 개혁을 원칙의 관점에서 보는 이들도 있다. 대형 테크 기업이 공공의 이익을 기업의 이익과 나란히, 또는 그보다 더 위에 둬야 한다고  주장하는 것이다. 이들은 소셜미디어 기업들이 혐오 발언을 제대로 규제하지 못하고 가짜 뉴스에 대응하지 못해 민주주의를 저해한다고  주장한다. AI 혁명을 주도한 기업들이 때로는 안전장치를 없앤 것이 사실이므로, 이들의 주장에 무게가 실린다. 구글 AI 윤리 부서의 책임자 팀닛 게브루가 역대 최대 규모의 AI 언어 모델을 개발하는 데 따르는 위험을 지적했다가 해고당했을 때가  결정적이었다.



(남은 이야기는 스프에서)

더 깊고 인사이트 넘치는 이야기는 스브스프리미엄에서 보실 수 있습니다.
이 콘텐츠의 남은 이야기가 궁금하다면 하단 버튼 클릭! | 스브스프리미엄 바로가기 버튼
Copyright Ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지

스브스프리미엄

스브스프리미엄이란?

    많이 본 뉴스