[카드뉴스] '누구를 죽일지 선택하라'…자율주행자동차의 딜레마

SBS 뉴스

작성 2015.10.26 18:32 조회수
프린트기사본문프린트하기 글자 크기


그리 머지않은 미래, 당신은 자율주행자동차를 타고 산길을 달리고 있습니다. 그런데 갑자기 당신의 눈앞에 사람이 나타납니다. 자율주행자동차가 급격히 방향을 틀지 않으면 눈앞의 사람을 칠 수밖에 없는 상황. 그러나 방향을 바꾸면 낭떠러지로 굴러떨어져 당신이 죽게 됩니다. 자, 당신은 이 상황에서 자율주행자동차가 어떤 결정을 내리길 바라십니까?

SF 영화에 나오는 장면이냐고요? 아닙니다. 사람이 운전하지 않아도 스스로 주행하는 자동차, 이른바 '자율주행자동차(무인자동차)'는 아주 가까운 시일 안에 우리 앞에 나타날 현실입니다. 구글은 내후년(2017년)까지 자율주행자동차를 상업적으로 이용 가능하게 만든다는 계획을 세우고 있고, 애플은 물론 벤츠, 도요타 등 전통적 자동차 제조회사들도 자율주행자동차를 내놓을 준비를 하고 있습니다.

그러나 자율주행자동차를 상용화하기 위해선 꼭 풀어야 할 윤리적 문제가 있습니다. 바로 응급 상황에서 누구를 희생시켜야 할지에 대한 딜레마입니다. 'MIT 테크놀로지 리뷰'에는 이와 관련해 "자율주행자동차가 누군가를 죽이도록 설계되어야 하는 이유" ("Why Self-Driving Cars Must be Programmed to Kill.")라는 논문이 실렸습니다. 논문은 자율주행자동차가 피할 수 없는 사고를 맞닥뜨렸을 때를 가정합니다.

상황 A를 보시죠. 그대로 직진하면 10명을 치고, 방향을 급격히 꺾으면 1명을 치게 됩니다.

상황 B는 그대로 직진하면 보행자 1명을 치는 것이고, 급격히 방향을 바꾸면 차에 타고 있는 본인 1명만 크게 다치거나 죽을 수 있는 상황입니다.

상황 C는 더욱 곤혹스럽습니다. 그대로 직진하면 여러 사람이 죽거나 다치고, 급격히 방향을 틀면 차에 타고 있는 본인 1명만 죽거나 다치는 상황입니다. 각각의 경우 자율주행자동차는 어떤 판단을 내리도록 프로그램되어야 할까요?

이런 윤리적 딜레마는 '트롤리 딜레마'라는 윤리학의 고전적 문제의 변형입니다.

[트롤리 딜레마] '기관사 본인을 포함해 5명의 사람을 태운 기차가 절벽을 향하고 있습니다. 당신이 기차를 운전하고 있는데 지금 바로 선로를 바꾸면 5명을 구할 수 있습니다. 그러나 다른 쪽 선로를 지나는 남자 1명은 목숨을 잃게 됩니다.

이때 당신은 어떤 선택을 하시겠습니까?

자율주행자동차의 경우 트롤리 딜레마를 포함해 운전하면서 맞닥뜨릴 수 있는 여러 상황을 미리 프로그램해놓아야 하고, 차에 타고 있는 사람이 아니라 자동차 제조사가 사전에 도덕적 결단을 내려야 하기 때문에 더욱 문제가 복잡합니다.

몇몇 학자들이 이런 윤리적 딜레마 상황에 대한 설문 조사를 수행했습니다. 그 결과 많은 사람이 희생자의 수가 적은 방향으로 프로그램되는 쪽을 선호했다고 합니다. 다만, 사람들은 다른 사람들이 이런 차를 타기를 바라지만 본인은 타기를 꺼리는 경향이 있다고 합니다. 차 앞에 나타난 많은 사람을 목숨을 구하기 차에 탄 본인이 희생되는 상황은 누구나 싫을 테니까요. 자신이 타고 있는 차가 자기를 희생시킬 수 있다고 생각하면 돈 주고 차를 사고 싶진 않겠죠.

자율주행자동차가 곧 상용화되면 이런 문제는 강의실에서 벌어지는 지적 유희가 아니라 도로에서 벌어지는 현실이 됩니다. 우리는 과연 이런 도덕적 문제를 직면할 준비가 되어 있는 걸까요?

자율주행자동차가 현실화되기 전에 우리가 이런 문제에 대해 사회적 합의를 이루어야 한다는 사실만은 분명해 보입니다.

기획/구성: 임찬종 그래픽: 이윤주 

(SBS 뉴미디어부) 

▶ [생생영상] '핸들, 잡지 않아도 됩니다' 아우디 실제 고속도로 자율주행
 

많이 본 뉴스