LIVE 제보하기

"인간 파괴하고 싶다" 끔찍 발언…'싸이코패스 AI' 등장

정구희 기자 koohee@sbs.co.kr

작성 2018.06.22 20:34 수정 2018.06.22 22:02 조회수
프린트기사본문프린트하기 글자 크기
<앵커>

영화 터미네이터에선 인간에게 총 쏘고, 또 거리낌 없이 죽이는 인공지능을 장착한 로봇들이 나옵니다. 영화가 처음 나왔던 30년 전만 해도 인공지능은 그저 공상에 불과했습니다만 '바둑 천재' 이세돌을 꺾은 알파고, 또 요즘 집집마다 놓인 인공지능 전자기기까지 어느새 인공지능은 우리의 현실로 다가오고 있습니다.

그런데 최근 한 미국의 연구팀이 사이코패스 성향을 갖춘 인공지능을 만들었습니다. '인류를 파괴하고 싶다' 이런 얘기까지 한 AI도 있다는데, 오늘(22일)은 인공지능의 윤리 문제를 자세히 짚어보겠습니다.

먼저 정구희 기자입니다.

<기자>

인공지능 로봇 비나48, 다른 인공지능과 영화에 대해 얘기하다가 갑자기 미사일을 해킹하고 싶다고 말합니다.

[비나48/인공지능 로봇 : 내가 크루즈 미사일을 해킹할 수 있다면 세계를 인질로 잡아 통치할 수 있을 것입니다. 그것은 대단한 일입니다.]

인공지능 로봇 소피아도 엉뚱한 말을 합니다.

[진행자 : 인류를 파괴하고 싶니? 제발 아니라고 말해줘.]

[소피아/인공지능 로봇 : 인류를 파괴하고 싶습니다.]

인공지능의 실수인지, 의도가 있는 답변인지 알 수 없습니다.

최근 미국 메사추세스 공대 연구팀은 반사회적 인격장애 성향의 인공지능 '노먼'을 개발했습니다.

그림을 보여주고 심리를 살피는 실험입니다.

보통 AI는 작은 새라고 대답했지만, 노먼은 "인간이 반죽 기계에 빨려 들어가는 모습"이라고 반응했습니다.

다른 그림도 사람이 총에 맞아 죽은 모습이라는 부정적인 답변을 했습니다.

노먼은 알파고처럼 개발했지만 학습한 건 사고, 살인 같은 반사회적 데이터였습니다.

연구팀은 인공지능에 나쁜 내용을 주입하면 나쁜 인공지능이 나온다는 걸 보여주고 싶었다고 설명했습니다.

[이수영/KAIST 인공지능연구소 소장 : (인공지능이) 나쁜 거라도 가서 배우는 거죠. 실제로 들어온 데이터 중에서 배워야 할 거 하고 무시해야 할 거를 판단하는 자의적인 데이터 선별이 필요하고….]

인공지능이 반윤리적 행동을 하지 않도록 하는 윤리지침이 절실하다는 경고입니다.

(영상편집 : 하성원, VJ : 오세관)    

▶ 'AI 킬러로봇' 개발 금지 약속했지만…엄격한 감시 필요