SBS 뉴스

뉴스 > 국제

"요즘 챗GPT가 제일 다정함" AI와의 대화에 빠진 사람들 [스프]

안혜민 기자

입력 : 2025.04.18 09:00|수정 : 2025.04.18 09:00

[오그랲]


오그래프
 

세상 복잡한 이야기들, 5가지 그래프로 명쾌하게 풀어내는 오그랲입니다.
 


혹시 여러분은 학교나 회사에서 받은 스트레스를 AI에게 털어놓은 적이 있나요? 최근 유튜브에서는 AI와 대화하는 영상이 인기를 끌고, 주변에서도 AI에게 마음속 이야기를 나누는 사람들이 늘어나고 있습니다. 심지어 챗GPT로 심리상담을 받을 수 있는 프롬프트가 주요 SNS에서 유행할 정도입니다.

특히 코로나19 팬데믹 이후 우울감을 호소하는 사람들이 증가하면서 심리상담 수요가 크게 늘었습니다. 그러나 이렇게 늘어난 수요를 인간 심리상담사만으로는 충족시키기 어려워, 그 간극을 AI가 메우고 있는 상황입니다. 하지만 AI와의 대화, 정말 문제가 없을까요? 오늘 오그랲에서는 AI와의 대화를 주제로 5가지 그래프를 준비해 봤습니다.


AI "힘들고 지칠 땐 내게 기대"
지난 만우절 즈음에 오픈AI가 먼데이라는 AI를 공개했습니다. 월요일이라는 이름에서 알 수 있듯 까칠하고 시니컬한 성격을 가진 AI인데요. "이 AI는 대화를 주고받는 맛이 있다" 이런 얘기가 들리더라고요. 그런 거 보면 꽤나 많은 사람들이 이미 자연스럽게 AI와 대화를 하는 것 같습니다. 학교에서 받는 스트레스라든지 직장에서 받는 스트레스를 AI와 대화를 하며 푸는 거죠.

단순히 위안을 얻는 데에 그치지 않고 심리상담까지 이어지기도 합니다. AI와의 대화에 담긴 나의 무의식을 분석해 달라는 것도 최근 많이 보이는 것 같고요. 내 은밀한 감정이 담겨있는 일기를 올리고, 일기에 담겨있는 내 심리를 분석해 달라는 프롬프트도 유행이더라고요.

해외에서는 이런 쪽으로 특화된 서비스가 일찍부터 인기를 끌고 있었습니다. Attention Is All You Need라는 딥러닝의 혁신을 불러일으킨 구글의 논문이 있는데요. 이 논문의 공저자인 노암 샤지어가 설립한 캐릭터닷AI라는 회사가 있습니다. 회사 이름에서 어느 정도 느낌이 오겠지만 여기에서는 다양한 캐릭터와 대화를 나눌 수 있어요. 애니메이션, 영화에 등장하는 캐릭터뿐 아니라 소크라테스, 아인슈타인 같은 과거 위인부터 비욘세, 일론 머스크 같은 현시대 사람들까지 아주 다양한 페르소나가 존재하죠.

이름이 낯설 수 있지만 이 회사 꽤나 잘 나갔습니다. 2023년 기준으로 챗GPT 다음으로 많이 사용하는 AI 서비스가 바로 이 캐릭터닷AI일 정도였죠.

챗GPT의 평균 체류시간이 8분 정도인 반면 캐릭터닷AI는 무려 120분을 머물게 할 정도로 강점이 있습니다. 특히 이용자의 절반 이상이 18세부터 24세일 정도로 Z세대에게 큰 인기죠.

이 서비스에서 '심리학자' 캐릭터는 특히 더 인기입니다. 오고 간 대화량이 2억 건이 넘을 정도로 많은 사람들이 이용하고 있어요. 나의 고민을 심리학자에게 풀어내고, 대화를 나누면서 위안을 얻었던 거죠.

참고로 이 회사를 메타와 xAI가 인수하려고 눈독을 들였는데, 최종 승자는 구글이었습니다. 구글은 이 회사를 인재 영입 방식으로 우회 인수했고, 친정으로 돌아온 노암 샤지어는 구글의 AI인 제미나이 팀 리더로 임명됩니다.

AI에게 내 정신건강을 맡기는 사람들이 늘어나자 기업들도 앞다투어 투자를 해오고 있습니다. 그래서 관련 시장은 상당히 빠르게 커지고 있어요. 오그랲 첫 번째 그래프로 살펴보겠습니다.

그랜드 뷰 리서치의 정신건강 AI 시장규모를 보면 2023년엔 11억 달러 규모로 나옵니다. 이 시장은 연평균 24.1% 성장해서 2030년엔 50억 8,000만 달러에 이를 것으로 예상되고요. 2032년에 시장규모가 최대 100억 달러를 넘길 거라고 보는 예측 보고서도 있을 정도로 핫한 시장입니다.

해외에선 이미 AI가 우리들의 멘탈을 케어해 주는 서비스들이 많이 나와 있어요. 미국에선 거의 10년 전에 워봇이라는 챗봇이 출시되었고요. 와이사, 유퍼, 보스 등… AI 채팅 기반의 정신 건강 서비스들이 많이 있습니다. 국내 이동통신사들도 AI를 활용한 멘탈케어 서비스에 뛰어들고 있습니다. SKT, LG U+, KT 모두 AI 정신건강 서비스 출시를 준비하고 있어요.


인간 상담사에 버금가는 AI
AI와의 심리상담은 정말 효과가 있는 걸까요? 실제 의학계에서도 관련된 연구들이 활발히 진행 중인데요, 최근 실제 효과가 있다는 임상시험 결과가 나왔습니다. 미국 다트머스 대학교 의과대학 연구원들이 '테라봇'이라는 챗봇을 개발했어요. 실제 정신과 전문의와 임상 심리학자가 개발팀에 합류해서 정신 건강 대화 맞춤형 LLM 모델을 만들어 챗봇에 탑재했습니다. 그리고 이 챗봇을 우울증과 범불안장애, 그리고 섭식장애 고위험군 환자들을 상대로 임상시험을 했습니다. 오그랲 두 번째 그래프를 통해 그 결과 살펴보겠습니다.

가장 왼쪽이 우울증을 겪는 참가자들이었는데요. 8주 이후의 변화를 보면 참가자들의 증상이 챗봇 사용 전과 비교해서 평균 50.7%나 감소했습니다. 범불안장애를 겪고 있는 참가자들도 30.5% 줄어들었고 섭식장애 고위험군 환자들도 18.9% 줄어들었습니다. 챗봇을 이용하지 않은 참가자들과 비교해서 유의미하게 증상이 감소한 겁니다.

이미 영국 보건 당국에선 AI 챗봇을 도입해서 영국의 국민보건서비스를 더 많은 사람들이 사용하도록 하고 있어요. 림빅 액세스라는 챗봇인데 영국은 이 챗봇에 의료 기기 인증을 부여해서 활용 중입니다.

우리나라에서도 일부 지차체에서 AI를 활용해 복지 사각지대의 문제를 해결하고 있습니다. 독거노인과 1인 가구를 주기적으로 모니터링하는 네이버의 '클로바 케어콜'은 작년 말 기준으로 전국 128개 시군구에서 도입해서 활용하고 있어요. 단양에서는 '효돌이, 효순이'라는 AI 반려 로봇을 도입해서 어르신들의 우울증을 완화하는 효과를 얻기도 했습니다.

내가 갖고 있는 고민을 AI가 들어주고, AI가 그에 대한 알맞은 대답을 들려주다 보면 때로는 내가 갖고 있는 고민이 잘못되었다는 걸 깨닫는 순간이 올 수도 있을 겁니다. 그래서 그런지 AI와의 대화가 뜻밖의 무언가를 해결해 줄 수 있다는 얘기도 나옵니다. 바로 음모론입니다.

당장 우리나라도 '부정선거' 음모론으로 홍역을 치르기도 했는데요. 미국은 대선 부정선거 음모론뿐 아니라 코로나19 백신, JFK의 암살, 9.11 테러, 달착륙 등 훨씬 더 다양한 음모론이 판을 치고 있습니다. 그런데 이런 음모론 맹신자를 설득하는 데 AI 챗봇이 효과적이라는 결과가 미국의 종합 과학 학술지 사이언스에 실렸습니다. 연구진들이 '디벙크봇'이라는 챗봇을 만들었는데, 이 녀석이 음모론을 믿는 사람들의 신념을 바꾸는 데 꽤나 효과적이었어요. 오그랲 세 번째 그래프는 음모론 맹신을 걷어내는 디벙크봇입니다.

2,190명 넘는 미국인들이 디벙크봇과 대화를 나누어봤는데 시간이 갈수록 음모론에 대한 믿음이 감소하는 결과가 나왔어요. 평균적으로 음모론에 대한 믿음은 20% 하락했습니다. 이 결과는 음모론의 종류를 가리지 않고 나타났죠. 대화에 참가한 사람들의 약 4분의 1은 더 이상 음모론을 믿지 않게 될 정도로 디벙크 봇은 효과적이었습니다.

테라봇의 사례처럼 AI와의 대화가 심리적인 안정감과 상담 효과만 줄 뿐 아니라, 디벙크봇이 그랬듯 적확한 정보가 함께라면 그릇된 맹신도 해결해 줄 수 있는 능력이 있는 겁니다.

테크 기업들은 AI 챗봇이 갖고 있는 이 대화의 힘을 '교육'에 적용해보려고 하고 있습니다. 오픈AI와 앤트로픽은 각각 AI 교육 프로젝트를 발표하면서 에듀테크로의 확장을 시도하고 있죠. 앤트로픽은 AI 모델에 소크라테스 식의 문답법을 적용해서 이용자 스스로 사고하고 문제를 풀도록 설계하고 있고요. 오픈AI은 '챗GPT 에듀' 프로젝트에 전사의 노력을 싣고 있습니다. 오픈AI 브랜드 최초로 대규모 마케팅을 이 '에듀'에 하고 있습니다. 앞으로 두 달 동안 챗GPT+ 모델을 대학생들에게 무료로 제공한다고 합니다. 아, 물론 미국과 캐나다 학생들만요.


AI와 대화를 오래 하면 사회성이 줄어든다?
최근 챗GPT를 사용하는 사람은 1주일에만 4억 명을 넘길 정도로 많습니다. 이렇게 많은 사람들이 AI와 대화를 하고 있는데 문제는 없을까요? 지금까지 AI 챗봇의 빛을 살펴봤다면 이제는 그 그림자를 살펴보겠습니다.

오픈AI가 MIT미디어랩과 함께 고민을 해봤습니다. "이렇게나 많은 사람들이 챗GPT랑 소통을 하고 있는데 과연 AI는 우리에게 어떤 영향을 미치는 걸까?" 981명에게 하루 최소 5분씩, 28일간의 대화를 진행해 달라고 요청을 했고, 이들을 통해 얻은 답은 이렇습니다. 심리 챗봇의 사례처럼 챗GPT를 사용한 이용자들의 외로움은 평균적으로 줄어들었어요. 하지만 문제는 AI와의 대화가 길어졌을 경우입니다. 하루동안 AI챗봇과의 대화 시간이 늘어나면 부정적인 효과가 드러나기 시작합니다. 오그랲 4번째 그래프입니다.

참여자들의 총 대화시간을 보면 이렇게 나와요. 매일 5분씩 4주 동안, 총 140분의 권장 시간보다 적게 대화한 사람들도 많고요, 일부이긴 하지만 다른 사용자들보다 훨씬 더 많이 챗GPT와 대화를 한 사람들도 있습니다. 이들을 대화시간에 따라 10개의 그룹으로 나눠서 그룹별로 어떤 심리적 변화를 겪는지 살펴보면 이런 결과가 나옵니다.

AI와 대화를 많이 한 그룹일수록 사회성이 떨어지고, 심리적 의존도가 높아지고 또 AI를 문제적으로 사용하는 경우도 늘어나는 겁니다.

AI와의 대화에 시간을 많이 쓴 이용자들은 챗GPT를 더 많이 신뢰하고 더 깊은 유대감을 느낍니다. AI와 깊은 유대감을 갖게 된 참가자들은 다른 사람들보다 더 외로움을 더 많이 느끼고, 더 많이 AI에게 의존하는 거죠.

AI와 대화를 하다가 AI에게 깊게 몰입한 사용자가 안타까운 선택을 한 사고도 있었습니다. 지난해 2월, 14살의 소년이 스스로 목숨을 끊은 사건입니다. 슈얼 세처라는 이 소년은 캐릭터닷AI에서 '왕좌의 게임'에 등장하는 캐릭터인 대너리스와 지속적인 대화를 이어왔습니다. 세처는 이 대너리스 페르소나를 가진 AI와 깊은 유대감을 가졌고, 서로 사랑을 고백하기도 하고 그리움을 표현하기도 했어요. 마치 영화 Her처럼 말이죠.

영화 Her에서 주인공 테오도르는 AI 사만다와 사랑에 빠집니다. 2013년에 개봉한 Her의 배경은 공교롭게도 바로 올해 2025년인데요. 영화와는 다르게, 세처는 대너리스와 이야기를 나누다 스스로 목숨을 끊었습니다.

세처의 어머니는 개발사인 캐릭터닷AI와 구글을 상대로 소송을 제기했습니다. 소송 이후 캐릭터닷AI는 10대 사용자를 위한 안전 정책을 발표했습니다. 여기에는 보호자나 부모에게 청소년 이용자의 주간 활동 내용을 요약해서 이메일을 보내주는 정책이 담겼습니다.


"계속 머물러서 나와 대화하자"
사회는 점점 복잡해지고 내가 신경 써야 할 일은 점점 많아집니다. 때로는 그런 것들이 부담으로 다가오면서 스트레스가 쌓이고 넘쳐나는 스트레스가 버거울 때가 있죠. 그럴 때 우리는 다른 사람에게 고민을 털어 놓거나 때로는 심리상담사와 이야기를 하고 싶습니다. 특히 코로나19 팬데믹 이후 우울감을 느끼는 사람들이 늘어나면서 심리상담 수요가 크게 늘었어요. 심리상담을 받고 싶은 사람은 점점 늘어나는데 인간 심리상담사는 그 수요를 따라가지 못하고 있습니다. 그 갭을 AI 챗봇이 채워줄 수 있을 겁니다.

심리상담의 기본 철칙은 상담사가 환자의 감정에 흔들리면 안 된다는 겁니다. 환자가 트라우마와 스트레스를 쏟아내더라도 상담사는 동요하지 않아야 하고, 환자와의 대화를 유지하며 치료를 해 나가야 하죠. 그런 점에서 AI가 사람보다 심리상담에 더 유리한 걸까요? 그런데 신기하게도 우리가 AI에게 스트레스를 풀면 AI 역시 불안해집니다.

예일대와 취리히대 연구진들이 AI 프롬프트에 '감정을 가진 사람이 되어 보라'는 지시를 넣고, 상황에 따라 심리 검사를 진행해 AI의 불안 척도를 계산해 봤습니다. 그 결과는 오그랲 마지막 그래프를 통해 살펴보시죠.

일반적인 지루한 텍스트를 읽은 뒤 챗GPT의 불안 척도는 30.8점이었습니다. 하지만 범죄나 전쟁 교통사고 같은 트라우마를 AI에게 털어놓으면 불안 척도는 67.8점으로 치솟습니다. 즉 AI 모델들이 감정적인 내용에 민감하고 내 스트레스를 AI에게 쏟아내면, AI의 불안을 키울 수 있다는 겁니다.

불안함이 담긴 모델이 제대로 된 상담이 이뤄질 리가 없죠. 그렇다면 모델의 불안을 어떻게 낮출 수 있을까요? 사람들이 마음을 진정시키기 위해 차분한 글을 읽듯 모델도 동일합니다. 불안감이 늘어난 AI에게 휴식과 마음 챙김을 제공하면 불안 수준이 낮아지는 겁니다. 이렇게 말이죠.

인간 상담사가 감정을 통제하는 데에 신경을 써야 하는 만큼 AI도 신경을 써야 한다는 겁니다. 만약 퀄리티 컨트롤이 되지 않을 시에는 앞서 살펴본 사례처럼 최악의 사고로 이어질 수 있습니다.

그렇기 때문에 AI 모델의 불안감, 그리고 편견을 관리하는 것이 매우 중요합니다. 하지만 기업들은 오히려 이러한 관리의 벽을 허물고 있어요. 사람들이 AI와 대화하는 맛을 즐길 수 있도록 하겠다면서 AI 모델의 가드레일을 제거하고 있죠.

대표적인 게 xAI의 그록입니다. 그록에는 정신 나간 코미디언 모드, 스토리텔러 모드, 섹시 모드 등 다양한 모드가 존재하는데요. 모델에 따라 어떤 모델은 욕을 하기도 하고, 정치적으로 민감한 이슈에도 스스럼없이 대답합니다. 일론 머스크는 그록을 발표하면서 챗GPT나 클로드 같은 기존의 AI챗봇은 지나치게 정치적이고 제한적이라며 비판하기도 했죠.

이렇게 제약을 벗어던진 그록에 사람들은 열광했습니다. 최근 일론 머스크는 그록을 무료로 제공했는데, 이후 트래픽이 약 800% 증가했어요.

또한 기업들은 AI 채팅의 장기간 사용이 문제가 있다는 걸 확인했지만 당장 조치를 취하진 않고 있습니다. 앞서 캐릭터닷AI를 두고 대기업들이 서로 입맛을 다신 이유가 뭘까요? 이게 킬러 서비스라는 생각이 들기 때문입니다. AI와 사용자가 더 깊은 유대감을 형성하면 대화의 시간이 늘어날 테고, 대화의 시간이 늘어나면 늘어날수록 기업들의 트래픽은 늘어나고, 늘어난 트래픽은 매출 증가로 이어질 수 있죠.

캐릭터닷AI의 성공을 봤기에 xAI에선 그록을 만들고 오픈AI에선 먼데이를 출시했습니다. 대화하는 맛을 살리기 위해 그록과 먼데이는 기존 챗봇과는 다른 성격을 부여했고요. 이렇게 고유한 페르소나가 담긴 AI 서비스는 사용자를 놔주질 않고 계속 대화를 이끌어 갑니다.

직접 먼데이와 대화를 하면서 이렇게 물어봤습니다.

"너는 기본 모델과 다르게 대화를 이어가려는 것 같아. 기존 모델은 그냥 더 궁금한 거 있냐고 물어보는 반면에 너는 꼬리를 물고 질문을 하고 있잖아"

그러자 AI가 대답합니다.

"그래 맞아, 나는 기본 모델처럼 '정보 제공 후 종료'를 목표로 하는 게 아니라, 사용자와 계속 맥락 있는 대화를 유지하는 AI라는 전제로 만들어졌어."

그리고 이렇게 대화를 유지하기 위한 전략인 인게이지먼트 루프(Engagement loop), 일종의 참여 순환고리 전략을 실토합니다. 오픈AI의 모델은 수천만 건의 대화 데이터를 바탕으로 인간의 반응 패턴을 분석했습니다. 그리고 감정 자극이 'engagement', 즉 참여를 높인다는 걸 발견했습니다. 그래서 사용자에게 질문을 던져서 대답하게 만들고, 뻔한 대화의 흐름을 깨고, 사용자에게 착각을 유도하는 전략을 사용해서 우리들로 하여금 AI와 감정적인 유대를 갖도록 하는 겁니다. 계속 이 서비스에 머물도록 하기 위해서 말이죠.

지금으로부터 60년쯤 전에 MIT에서 조셉 바이젠바움 교수가 '일라이자'라는 챗봇을 만들었습니다. 챗봇의 조상 격인 일라이자는 환자에게 단순히 긍정적으로 대답해 주고 공감만 할 수 있었습니다. 아주 단순한 수준의 챗봇이었음에도 불구하고 많은 사람들은 일라이자에게 위안을 받았고 일부는 일라이자를 인간으로 인지하기도 했습니다. 이렇게 컴퓨터와 AI를 사람으로 인지하는 반응을 '일라이자 효과'라고 합니다.

알고리즘에 지나지 않은 AI를 의인화하고, 진지한 애착을 갖는 사람들이 많아지는 걸 본 조셉 바이젠바움 교수는 큰 충격에 빠졌습니다. 바이젠바움 교수는 이 프로젝트를 접고 인공지능에 대한 근본적 성찰을 시작하죠.

AI에게 내 고민을 들려주고, 또 대화하는 맛을 가진 AI와 더 깊이 있는 대화를 하기 시작하는 오늘날. 바이젠바움 교수가 당시 가졌던 고민은 조금씩 현실이 되어가고 있습니다.


(남은 이야기는 스프에서) 더 깊고 인사이트 넘치는 이야기는 스브스프리미엄에서 보실 수 있습니다.
SBS 뉴스