<앵커>
어떤 질문이든 답을 척척 내놓는 인공지능이지만, 그 답을 맹신해서는 안 된다는 지적이 끊이지 않습니다. 실제로 엉뚱한 정보를 제공하거나 거짓말을 하는 사례도 적지 않은데요. 국내 연구진이 이런 문제를 해결할 수 있는 대안을 내놓았습니다.
서동균 기자가 보도합니다.
<기자>
챗GPT에게 역대 한국인 메이저리거의 홈런 개수를 물어봤습니다.
12개인 이정후의 홈런 개수를 2개라고 답합니다.
너무 적은 것 아니냐고 다시 물어보자 그제서야 "잘못 적었다"고 인정합니다.
챗GPT는 3년 전, 세종대왕이 컴퓨터인 맥북을 던진 사건이 조선왕조실록에 기록돼 있다는 황당한 답변을 내놓기도 했습니다.
허위 정보를 사실로 믿고 답하는 이른바 '할루시네이션', 환각 현상입니다.
[김보경/서울 마포구 : 정확한 자료를 찾거나 계산을 할 때 오류가 있던 걸.]
[이성현/서울 영등포구 : 어떠한 자료를 인용했는지 좀 불명확하다는 점이 있고.]
국내 연구팀이 이런 현상의 원인을 규명했습니다.
'세종대왕'과 '맥북'이 아무 관련이 없다는 걸 학습하기 전에 이미 특정 답변을 할 확률이 높은 상태였던 겁니다.
덧셈의 개념을 모르는 상태에서 보기 5개가 있는 문제가 나왔다면 정답 확률은 20%여야 하지만, 근거 없이 특정 보기에 가중치를 부여해 확신을 가지고 답하는 식입니다.
연구팀은 인간의 두뇌 발달 과정에서 착안해 AI가 본격적으로 학습하기에 앞서 무의미한 데이터를 AI에 입력하는 예열 단계를 거쳤습니다.
AI가 '나는 아직 아무것도 모른다'는 상태를 먼저 학습하게 한 겁니다.
[백세범/카이스트 뇌인지과학과 교수 : 의미 없는 데이터를 잠깐 학습을 해서 결과적으로 아무것도 모르는 상태에 걸맞은 신경망의 상태를 만든다.]
그랬더니 과신이 사라지고, 모르는 건 "모른다"고 답하게 됐다는 게 연구팀의 설명입니다.
챗GPT나 제미나이처럼 이미 방대한 양의 데이터를 학습한 AI에겐 적용하기 어렵지만, 새로 개발되는 대화형 AI나 자율주행 AI 등에는 도입이 가능한 걸로 전망하고 있습니다.
이번 연구 결과는 AI 분야 국제 학술지인 '네이처 머신 인텔리전스'에 온라인 게재됐습니다.
(영상취재 : 김영환, 영상편집 : 김진원, 디자인 : 강유라)