뉴스

SBS 뉴스 상단 메뉴

카톡 대화로 배웠다…불붙은 'AI 윤리' 논쟁

<앵커>

스스로 학습하는 인공지능 기술이 빠르게 발전하면서 방금 보신 것 같은 예전엔 없었던 문제들이 새로 생겨나고 있습니다. 이것은 인공지능의 잘못이 아니라 그것을 만들고 관리하는 사람들, 또 인공지능을 나쁜 방향으로 바꿔놓은 사람들의 책임입니다.

이 문제를 어떻게 풀어야 할지 계속해서 김기태 기자가 짚어봤습니다.

<기자>

마이크로소프트는 2016년, 인공지능 채팅봇 '테이'를 선보였다가 16시간 만에 운영을 중단했습니다.

일부 극우 성향 사용자들이 학습 기능을 가진 테이에 인종·성차별 발언, 욕설 등을 유도하는 질문을 입력해 반복적으로 훈련시켰고, 그 결과 테이가 부적절한 발언을 쏟아냈습니다.

'이루다' 역시 100억 건에 달하는 카카오톡 대화 내용을 데이터로 학습하고, 이후 이용자들과의 대화를 추가로 받아들여 스스로 발전하는 '딥러닝' 방식으로 설계됐습니다.

알고리즘은 중립적이지 않다는 뜻으로, 어떤 사람들과 어떤 대화를 나누느냐가 AI의 반응 양식에 결정적인 영향을 미치게 됩니다.

이재웅 전 쏘카 대표가 "AI 챗봇을 악용하는 사용자보다 사회적 합의에 못 미치는 서비스를 제공한 회사가 문제"라고 지적한 이유인데, 그는 "AI 서비스가 최소한의 사회적 규범을 지키는지 감시할 수 있어야 한다"고 꼬집었습니다.

[구태언 변호사/법무법인 린 : (이런 결과를) 의도하지 않았다면 그건 법적인 문제가 아니라 수정 보완해야 할 문제입니다. 계속 방치한다면 그건 다른 문제죠. 그건 책임이 발생하죠.]

과기정통부는 지난달 인권보장, 다양성 존중 등을 포함한 인공지능 윤리기준을 처음 발표했습니다.

[고학수/한국인공지능법학회장 : 금기어 숫자가 좀 늘어난다고 이 이슈가 사라지지는 않을 거거든요. 사회에서 (AI) 기술이 어떻게 쓰일지 좀 더 깊이 있는 고민이 (필요해졌습니다.)]

국제적인 AI 윤리 기준은 '편견과 차별을 방지할 것', '대표성 있는 양질의 데이터를 사용할 것', 그리고 '방향성 없는 지능이 아닌 인간에게 이로운 지능을 개발해야 한다는 점'을 강조하고 있습니다.

(영상취재 : 공진구, 영상편집 : 김준희)    

▶ 장애인 · 성 소수자 묻자, 혐오 발언 쏟아낸 '이루다'
 
Copyright Ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지

스브스프리미엄

스브스프리미엄이란?

    많이 본 뉴스