동영상
간단한 정보 조회부터 복잡한 코딩까지 척척 뽑아내는 AI, 하지만 AI도 잘못된 정보를 제공하고, 심지어 거짓말도 한다는 사실이 여러 차례 확인됐습니다.
이런 현상을 AI 할루시네이션, 이른바 AI 환각이라 부릅니다.
AI의 잘못된 정보로 피해를 봤다면 누가, 어디까지 책임져야할까? 이 기준에 대한 판단이 중국의 한 법원에서 나왔습니다.
중국 대입 지원 기간인 지난해 6월 항저우에 사는 양 모씨는 AI플랫폼에 입시 정보를 물었습니다.
AI가 계속 잘못된 정보를 제공하자, 양씨는 틀렸다고 지적했습니다.
AI는 만약 정보에 오류가 있다면 10만 위안, 우리돈 2천 여만원을 배상하겠다는 답까지 내놨습니다.
결국 양씨는 AI플랫폼과 개발업체를 상대로 부정확한 정보로 피해를 봤다며 소송을 냈습니다.
소송 7개월 만에 중국 항저우 인터넷 법원은 양 씨의 소송을 기각하고, 개발업체의 손을 들어줬습니다.
재판부는 우선 AI는 법적 효력을 갖는 민사 소송 대상, 즉 법인격체가 아니기 때문에 10만 위안의 배상을 약속한 AI의 답은 법적 효력이 없다고 봤습니다.
재판부는 판결문에서 "AI는 의사를 표현할 수 없다. AI는 민사상 주체가 될 수 없다."고 명시했습니다.
개발 업체의 책임도 인정하지 않았습니다.
현재 AI 서비스는 학습한 범위 내에서 확률적인 정보를 제공하는 것이지, 명확한 사실을 제공하는 것은 아니라고 봤습니다.
[샤오원/중국 항저우 인터넷법원 판사 : AI 모델이 학습 과정에서 사실을 이해하기보다는 확률을 예측하도록 학습되기 때문입니다.]
따라서 생성된 콘텐츠가 부정확한 것은 현재 기술 상황에서 불가피한 현상입니다.
국내에서도 한 변호사가 AI로 판례를 검색해 법원에 제출했다가 아예 없는 판례라는 사실이 드러나기도 했습니다.
또 각종 인물 관련 질문에서도 전혀 사실이 아닌 내용을 답하기도 합니다.
결국 AI는 이용자가 정보의 부정확성을 인식하고, 이용 책임을 져야 한다는 판결이 나온 겁니다.
전 세계적으로 유사한 소송이 여러 건 제기된 상황인데, 다른 나라에서는 어떤 판결이 나올지 주목되는 상황입니다.
베이징에서 SBS 한상우입니다.
(취재 : 한상우, 영상편집 : 유미라, 제작 : 디지털뉴스부)