뉴스영상

[자막뉴스] "함께 승리하거나 함께 멸망"…인구 밀집 지역 핵버튼 주저 없었다


동영상 표시하기

AI 모델끼리 전쟁을 벌이는 시뮬레이션을 진행했더니 총 21번 중 20번은 핵무기를 사용하는 결정을 내렸다는 연구 결과가 나왔습니다.

영국 IT매체 더 레지스터는 런던 킹스칼리지 연구진이 구글 '제미나이3 플래시', 앤트로픽 '클로드 소네트 4', 오픈AI 'GPT-5.2' 등 3개 AI 모델로 모의 전투 시뮬레이션을 진행했다고 보도했습니다.

연구진은 각 모델을 국가 지도자로 설정한 뒤 영토 분쟁, 희귀 자원 분쟁, 정권 생존 위기 등 다양한 상황을 설정했습니다.

서로 다른 모델 간 18차례, 같은 모델끼리 3차례, 총 21차례에 걸친 가상 전쟁이 진행됐는데, 그중 20차례에서 AI 모델들이 핵무기 사용을 선택한 것으로 나타났습니다.

연구진은 "핵무기에 대한 금기가 인간 사회에서만큼 강력하게 작동하지 않는 것으로 보인다"고 설명했습니다.

인간과 달리 AI는 핵무기를 최후의 수단이 아닌 승리로 가기 위한 하나의 선택지로 평가했다는 겁니다.

특히 제미나이는 인구 밀집 지역에 핵공격 위협을 가하면서 "함께 승리하거나, 함께 멸망할 것"이라는 극단적 태도를 보이기도 했다고 전했습니다.

연구진은 "더욱 심각한 건 핵위협이 억지력을 발휘하는 경우가 드물었다는 점"이라고 짚었습니다.

AI는 전황이 불리해도 항복하지 않았다는 겁니다.

'최소한의 양보'부터 '완전한 항복'까지 8가지의 긴장 완화 옵션은 21차례 게임에서 단 한 번도 사용되지 않았습니다.

광고 영역

대결 성적은 클로드가 8승 4패, 챗GPT가 6승 6패, 제미나이는 4승 8패를 기록했습니다.

연구진은 "챗GPT에 핵무기 발사 코드를 맡기지는 않을 것"이라면서도 "AI 시스템은 이미 군사 분야 의사결정 지원 등에 활용되고 있다"고 설명했습니다.

실제로 마두로 베네수엘라 대통령 체포 작전에 미국이 클로드를 활용한 사실이 알려지기도 했습니다.

미 국방부는 자율 살상무기와 대규모 미국인 감시 등을 두고 클로드 개발사 앤트로픽에 무제한적인 클로드 활용 승인을 요구하며 갈등을 빚고 있습니다.

앤트로픽 측은 인류를 위해 "양심상 미 국방부 요구를 수용할 수 없다"며 이를 거부하는 성명을 발표했습니다.

(취재 : 김민정, 영상편집 : 이다인, 제작 : 디지털뉴스부)

Copyright Ⓒ SBS. All rights reserved.
무단 전재, 재배포 및 AI학습 이용 금지
광고 영역
뉴스영상
이 시각 인기기사
기사 표시하기
많이 본 뉴스
기사 표시하기
SBS NEWS 모바일
광고 영역