뉴스

'누드사진 생성' AI 도구에 피해 잇달아…미 10대 여학생 소송

'누드사진 생성' AI 도구에 피해 잇달아…미 10대 여학생 소송
▲ 텔레그램 앱 로고

인공지능 AI를 이용한 나체 사진 생성 도구로 인해 실제 피해 사례가 잇따르면서 사회적인 우려가 커지고 있다고 월스트리트저널이 보도했습니다.

월스트리트저널은 미국 뉴저지주의 10대 소녀가 AI 이미지 생성 소프트웨어 '클로드오프' 개발사인 'AI/로보틱스 벤처 스트래티지 3'을 상대로 소송을 제기했다고 전했습니다.

이 소송의 원고인 17세 여학생은 메신저 앱 텔레그램이 자동화 프로그램을 통해 클로드오프에 접근할 수 있게 했다는 이유로 텔레그램 역시 명목상 피고로 추가했습니다.

이 여학생은 14세 때 수영복을 입고 찍은 사진을 자신의 인스타그램 계정에 올렸는데, 고등학교 동급생인 남학생이 이 사진을 이용해 가짜 나체 사진을 만들었으며 그 도구로 클로드오프를 이용했다고 주장했습니다.

또 같은 반의 일부 남학생들은 이처럼 AI 도구로 생성한 여러 여학생의 가짜 나체 사진을 단체 채팅방에 올려 공유한 것으로 알려졌습니다.

소송을 제기한 소녀는 자신의 딥페이크 사진이 인터넷에 유포될까 봐 "끊임없는 두려움" 속에 살고 있으며, 자신과 다른 여학생들의 사진이 클로드오프의 AI 훈련에 이용될까 걱정된다고 밝혔습니다.

원고 측은 클로드오프 운영사가 당사자의 동의 없이 보유한 모든 나체 이미지를 삭제·파기하고, 해당 이미지를 AI 모델 훈련에 사용하지 못하도록 명령해 달라고 법원에 요청했습니다.

텔레그램 측은 이 소송과 관련해 "비동의 포르노그래피와 이를 제작하는 도구는 텔레그램 이용약관에 명시적으로 금지돼 있으며 발견될 때마다 삭제된다"며 "운영진은 클로드오프 도구를 포함한 비동의 포르노그래피 생성을 위해 만들어진 봇을 정기적으로 제거한다"고 밝혔습니다.
Copyright Ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지

많이 본 뉴스

스브스프리미엄

스브스프리미엄이란?