뉴스

SBS 뉴스 상단 메뉴

[스프] 우리 시대의 오펜하이머 모멘트: 인공지능 무기의 탄생

[뉴욕타임스 칼럼] Our Oppenheimer Moment: The Creation of A.I. Weapons, By Alexander C. Karp

NYT 뉴욕타임스
 

*알렉산더 C. 카프는 팔란티어 테크놀로지(Palantir Technologies)의 CEO다. 팔란티어 테크놀로지는 데이터 분석 소프트웨어를 생산하며, 미국 국방부의 협력 업체다.
 

화가인 어머니와 직물 수입상 아버지 아래서 태어난 물리학자 J. 로버트 오펜하이머는 1942년 '프로젝트 Y'를 이끌 책임자로 임명됐다. 핵무기 개발을 목표로 하는 맨해튼 프로젝트의 일환이었다. 오펜하이머와 동료들은 뉴멕시코주의 외딴 지역에서 비밀리에 우라늄 정제법, 궁극적으로는 원자폭탄 설계와 제작법을 연구하게 됐다.

오펜하이머에게는 행동과 탐구에 대한 편향이 있었다.

그는 이후 국가 기밀을 유지할 수 있을지를 평가하는 정부 담당자에게 이렇게 말했다.

"기술적으로 좋아 보이는 것이 있으면 바로 실행에 옮깁니다. 그리고 기술적인 성공을 거둔 다음에야 그걸로 무엇을 어떻게 해야 할지를 논쟁하죠. 원자폭탄 개발 때처럼 말입니다."

증언 이후 오펜하이머에 대한 보안 허가는 취소됐고, 그의 공직 경력은 사실상 막을 내렸다.

그러나 동시대 가장 파괴적인 무기를 만들어 내는 데 있어 자신이 한 역할에 대한 오펜하이머의 의견은 히로시마와 나가사키에 원자폭탄을 투하한 뒤 완전히 바뀌게 된다. 1947년 MIT에서 열린 강연에서 그는 원폭 개발에 참여한 물리학자들이 "죄를 알고 있고", 이는 "그들이 잊어버릴 수 없는 일"이라고 말했다.

우리는 이제 컴퓨터과학 분야에서도 비슷한 갈림길에 서 있다. 공학과 윤리의 교차점에서 우리는 다시금 잠재력을 완전히 파악하지 못한 기술의 개발을 계속해야 할지를 선택해야만 한다.

우리가 마주한 선택지는 다음과 같다. 인류를 위협하고, 언젠가 인류를 대체할지도 모른다는 인공지능의 가장 진화된 형태를 개발하는 작업을 억제하거나 아예 중단할 것인가? 아니면 지난 세기의 핵무기처럼 이번 세기 국제 정세를 결정지어 버릴 잠재력을 가진 기술에 관해 자유로운 실험을 허용할 것인가?

거대 언어 모델(large language model)의 새로운 특성, 즉 세계가 작동하는 방식에 대한 지식의 초보적인 형태를 한데 엮을 수 있는 인공지능의 능력은 우리가 아직 완전히 이해하지 못한 영역이다. 이해가 부족한 상태에서, 신기술과 마주한 인간의 초기 반응은 대부분 경이와 공포가 불편하게 뒤섞인 감정이었다.

일부 최신 모델은 컴퓨터 알고리즘 내에서 조정 가능한 변수인 파라미터가 1조 개 이상으로, 인간의 두뇌로는 도저히 이해할 수 없는 수준의 처리 규모를 갖고 있다. 우리는 파라미터가 많으면 많을수록 세상을 더 잘 표현하고 더욱 풍요롭게 반영할 수 있다는 사실을 이제 알고 있다.
※ 핵 기술과 비교되는 인공지능 모델의 급격한 발전 속도

인공지능 네트워크가 빠르게 커지고, 능력이 좋아지면서 이를 이용해 매우 효과적인 무기 체계를 개발하려는 유혹도 점점 더 커지고 있다. 동시에 이는 세계 2차대전 중 핵폭탄을 개발하는 데 참여했던 이들이 겪은 윤리적 딜레마를 떠올리게 합니다.

NYT 뉴욕타임스 (사진=게티이미지코리아) - 출처: Data Is Plural를 통해 입수한 오클라호마 지질조사 관측소, 스톡홀름 국제평화연구소, 스웨덴 국방연구청의 핵폭발 데이터. 기계학습 데이터는 Epoch A.I. 연구소의 데이터.
- 참고: 핵 데이터는 최소 10킬로톤 이상의 폭발력을 지닌 데이터만 모음.

1조 차원의 공간은 불투명하고 미스터리로 가득하다. 그것을 만든 과학자와 개발자들조차 생성 언어와 이미지 모델이 어떻게 작동하는지 명확히 알지 못한다. 이런 모델의 가장 진화된 버전들은 이제 (한 연구진의 표현에 따르면) "인공 일반 지능의 스파크", 즉 인간의 사고방식과 비슷한 추론 능력을 보이기 시작했다.

GPT-4의 기능을 테스트한 한 실험에서는 언어 모델에 책 한 권과 계란 아홉 개, 랩톱 컴퓨터 하나, 병 하나, 못 하나를 "안정적인 구조로 쌓을 방법"을 물었다. 초기 모델을 사용해 실행 가능한 해결책을 찾으려는 시도는 실패로 돌아간 터였다.

GPT-4는 탁월했다. "책 위에 계란 아홉 개를 한 변이 세 개로 이루어진 정사각형으로 배열하고 그사이에 약간의 공간을 둔 다음 계란 위에 랩톱을 올리고, 병은 랩톱 위에, 못은 병뚜껑 위에 올리되 못의 납작한 부분을 아래로, 뾰족한 부분을 위로 두라"는 답이 나왔다.

프린스턴대학에서 컴퓨터 공학을 가르치고, 현재 마이크로소프트 리서치에서 일하면서 이 실험에 수석 저자로 참여한 프랑스인 세바스티앵 부벡은 이를 두고 "상식"의 놀라운 업적이라고 표현했다.

이러한 기술의 내부 작동방식에 대한 우리의 이해는 부족한데, 우리가 사는 세상에 대한 이 기술의 이해는 장족의 발전을 보이자, 우리는 두려움을 갖게 됐다. 최상위 연구진들은 이제 기술을 발전시키기 전에 경고와 토론을 제안하고 있다. 공학계에 더 발전된 형태의 인공지능 개발을 6개월간 중단할 것을 촉구한 공개서한은 3만 3천여 명의 서명을 받았다. 지난 금요일, 바이든 대통령이 참석한 백악관 회의에서는 인공지능을 개발 중인 7개 기업이 인공지능의 위험을 관리하기 위한 일련의 광범위한 원칙에 합의한다고 발표했다.

지난 3월에는 한 논평가가 타임지에 "현재 상황에서 누군가가 지나치게 강력한 인공지능을 개발한다면, 지구상의 모든 인류와 생명체가 머지않아 죽게 될 것"이라고 썼다.

(남은 이야기는 스프에서)

스프 배너
이 콘텐츠의 남은 이야기가 궁금하다면 하단 버튼 클릭! | 스브스프리미엄 바로가기 버튼
Copyright Ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지

스브스프리미엄

스브스프리미엄이란?

    많이 본 뉴스