뉴스

SBS 뉴스 상단 메뉴

오픈AI, AI 장기리스크 대비 안전팀 해체…경영진 갈등 후폭풍?

오픈AI, AI 장기리스크 대비 안전팀 해체…경영진 갈등 후폭풍?
챗GPT 개발사 오픈AI가 인공지능(AI)의 장기적인 위험에 대해 연구하는 안전팀을 사실상 해체했다고 블룸버그 통신 등이 보도했습니다.

매체들은 내부 소식통을 인용해, 오픈AI의 슈퍼얼라인먼트(superalignment) 팀 일부가 다른 팀으로 재배치되고 있다고 전했습니다.

'슈퍼 얼라인먼트'팀은 미래에 구현될 초지능 AI를 제어함으로써 인간에게 유용하고 해롭지 않은 방식으로 행동하도록 연구하는 안전팀입니다.

작년 7월 설치된 이 팀은 "우리보다 훨씬 더 똑똑한 AI 시스템을 조종하고 제어하기 위한 과학적이고 기술적인 연구에 초점을 맞추고 있다"고 밝힌 바 있습니다.

이 팀의 해체는 오픈AI의 공동 창립자 일리야 수츠케버 등 팀을 이끌던 주요 인력이 잇따라 회사를 떠난 지 며칠 만에 나왔습니다.

오픈AI의 수석과학자로 일해 온 수츠케버는 지난해 11월 샘 올트먼을 CEO직에서 축출할 때 주도적인 역할을 했던 인물로, 지난 14일 "오픈AI를 떠나기로 결정했다"고 밝힌 바 있습니다.

수츠케버는 지난해 올트먼 축출 당시, 회사가 AI의 위험성에 대해 충분한 주의를 기울이지 않은 채 사업을 구축하는 데만 집중한다고 우려했던 것으로 알려졌습니다.

수츠케버와 함께 AI 안전팀을 이끌던 또다른 임원인 얀 레이케도 최근 회사를 떠났습니다.

레이케는 "나는 오픈AI가 이 연구(초정렬)를 하기 가장 좋은 장소가 될 것으로 생각했었다"며 "그러나 오랫동안 회사의 핵심 우선순위에 대해 경영진과 의견이 달랐다"고 토로했습니다.

이어 "인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험한 노력"이라며 "오픈AI는 인류를 대표해 엄청난 책임을 지고 있지만, 지난 몇 년간 안전 문화와 프로세스는 제품 뒷전으로 밀려났다"고 지적했습니다.

(사진=AP, 연합뉴스)
Copyright Ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지

스브스프리미엄

스브스프리미엄이란?

    많이 본 뉴스