* SBS 보이스(Voice)로 들어보세요!
지난 2016년 미국 위스콘신 대학은 사람들이 인공지능(AI) 프로그램의 실수를 어느 정도까지 인내할 수 있는지 연구했습니다. 연구자들은 대학생들에게 병원 진료를 예약하도록 했습니다. 이들은 최첨단 AI 컴퓨터 또는 전문의 가운데 진료를 선택할 수 있었는데, AI컴퓨터와 전문의는 모두 오진을 하도록 했습니다. 그런데, 오진 판정을 들은 뒤 대학생들은 전문의보다 컴퓨터의 진단을 훨씬 빨리 무시했습니다. 즉 학생들은 사람의 잘못은 수용했지만, 기계에 대해서는 그렇지 않았습니다.
랜드연구소는 2017년 자율주행차에 대한 2가지 시나리오를 내놨습니다. 하나는 2020년 자율주행차의 일반판매를 시작할 경우인데, 이때 자율주행차의 운전능력은 사람보다 10% 나은 정도일 것으로 추정됩니다. 두 번째 시나리오는 자율주행차가 거의 완벽한 운전을 할 때까지 판매를 연기하는 것인데, 랜드연구소는 이 시기를 일러야 2040년 정도로 예상했습니다.
미국 자동차 전문지인 캘리 블루 북(Kelley Blue Book)의 2016년 조사에 따르면 응답자의 63%가 자율주행차가 주된 운송수단이 된다면 도로가 더 안전할 것이라고 했습니다. 94%의 교통사고가 사람의 실수로 발생한다는 美도로교통안전국(NHTSA)의 조사결과를 감안하면 그리 놀라운 것도 아닙니다.
지난해 10월 인도네시아 라이온 항공(Lion Air) 추락사고는 최악의 가능성을 보여줬습니다. 보잉 737 맥스 항공기는 자바해에 추락해 승객 189명이 모두 사망했습니다, 복구된 비행기록장치를 보면 센서가 오작동으로 비행기의 속도가 떨어졌다고 잘못 판단했고, 비행기 스피드를 높이도록 작동했습니다. 조종사가 이를 막으려 했지만 결국 추락했습니다. 그런데, 미연방항공청(FAA) 조사에 따르면 버튼 2개만 누르면 센서의 작동을 멈출 수 있었지만 사람이 제작한 매뉴얼 책자 어디에도 이런 내용이 적혀 있지 않았습니다.
인간과 기계의 실수에 의한 흔한 문제는 편향적 분석의 위험성입니다. 미국의 비영리 탐사보도 매체인 '프로퍼블리카(ProPublica)'는 범죄자의 가석방, 보석금, 형량 등을 결정할 때 범죄자의 재범 가능성을 알려주는 인공지능 프로그램의 판단 결과를 분석했습니다. 이 프로그램은 이미 미국 일부 주들이 활용하고 있습니다. 분석결과 피고인의 주소 같은 데이터 등을 활용하게 되면 인종적 편견이 강화되는 것으로 나타났습니다.
인공지능을 활용하는 검색 엔진도 비슷한 문제가 있습니다. 전문가들은 현재 기술은 중립적이지 않고 검색 회사들은 국민을 대표하지 않기 때문에 검색 과정에서 생기는 부정적인 결과를 예견하지 못한다고 합니다. 따라서 인공지능(AI)의 의도되지 않은 결과를 제한하기 위해서 철저한 검사와 규제가 필요하다고 주장합니다.
자동차는 오랫동안 독립성의 상징이었습니다. 캐리 블루 북 2016년 조사에 따르면 51% 응답자가 자율주행차 시대에도 차량 운전을 계속하겠다고 했습니다. 반면 환자, 시각장애인, 무면허인 경우 자율주행차가 자유와 독립성을 보장해 줄 수 있습니다.
사람의 실수에 대해서는 용서를 하지만, 사람이 프로그램한 로봇에 대해서는 용서하지 않는 역설은 여전합니다. 이는 우리가 로봇과 인공지능에 대해 말하는 방법이 잘못됐기 때문이라고 전문가들은 지적합니다. 자율, 정체성 같은 단어들은 사람에게 적용되는 단어입니다. 그런데도 우리는 로봇에게 인간의 단어로 감성을 부여합니다.
사실 무인자동차는 자율 주행하는 것이 아니라 소프트웨어에 의한 주행을 하는 것입니다. 이런 사실을 깨닫는다면 기계들을 얼마나 신뢰할 것인지, 잘못됐을 때 누가 책임을 져야 하는지 더 잘 판단할 수 있습니다. 말하자면 사람이 실수를 했기 때문에 결과적으로 소프트웨어가 실수를 하게 된 것입니다. 왜냐하면, 컴퓨터의 연산과정에 들어가는 모든 요소는 인간이 선택한 것이기 때문입니다.