
세상 복잡한 이야기들, 5가지 그래프로 명쾌하게 풀어내는 오그랲입니다.
독자 여러분 안녕하세요. 요즘 일교차가 거의 15도 넘게 벌어지면서 주면에 기침하는 사람들이 많아졌습니다. 날이 풀리면서 어느새 봄이 다가왔구나 싶으면서도 여전히 아침, 저녁으로는 추운 만큼 독자 여러분 모두, 건강 조심하길 바라겠습니다. 미세먼지와 황사도 기승을 부리는 만큼 마스크도 항상 잘 챙기시고요.
이렇게 날씨가 오락가락하는 날이면, 내 옆에 AI 비서가 있어서 오늘 날씨에 맞는 옷을 알아서 추천해 주면 좋겠다는 생각이 듭니다. 공교롭게도 오늘 오그랲에서 다룰 주제가 'AI 에이전트'이기도 한데요. 오픈AI, 구글, 메타 같은 빅테크도 뛰어들고, 우리나라의 삼성전자, LG 같은 기업들도 AI 에이전트를 만들어내기 위해 노력 중입니다. 도대체 AI 에이전트가 뭐길래 이렇게 다들 열심인 건지, 지금부터 이야기해보도록 할게요.
알아서 척척, 다 해주는 AI 에이전트
독자 여러분, 혹시 영화 '아이언맨' 봤나요? 영화에서 아이언맨은 똑똑한 AI 비서, 자비스를 항상 옆에 두고 있습니다. 자비스는 토니 스타크의 요구에 따라 저택을 관리하고, 또 필요한 업무를 서포트하는 비서 역할도 하고요. 어떤 때엔 해야 할 일을 알아서 찾아서 문제를 해결하기도 하죠. 이 자비스가 바로 수많은 기업들이 만들려고 하는 AI 에이전트의 이상적인 모습입니다.

현재 AI 모델과 앞으로 나올 AI 에이전트는 얼마나 다른 걸까요? 한 번 AI 에이전트에게 '테슬라 주식을 심층 분석'해 달라는 명령을 해 봤습니다. AI 에이전트는 기존 모델보다 훨씬 더 다양한 툴들을 자율적으로 활용하면서 정보를 수집하고, 이를 바탕으로 결과물을 제시합니다. 만약 AI 에이전트와 같은 수준의 결과물을 얻으려면 우리는 현재 모델에게 하나하나 지시사항을 전달해줘야 해요. 하지만 AI 에이전트는 알아서 다 해내죠. 이게 기존의 모델과 가장 큰 차이점입니다.
AI 에이전트의 핵심 능력은 3가지로 볼 수 있습니다. '추론과 계획 능력', '기억 능력', 그리고 '행동 능력'.
먼저 AI 에이전트는 문제가 주어지면 추론 능력을 바탕으로 어떻게 문제를 해결할지 계획을 세워요. 그리고 그 문제를 해결하기 위해 AI 에이전트는 다양한 도구들을 활용하죠. 새로운 정보를 얻기 위해 검색을 하기도 하고, 수학 문제를 풀기 위해선 계산을, 또 프로그래밍을 위해선 코딩 툴을 사용하는 식으로 말이죠. 이 과정에서 AI 에이전트는 사용자의 컴퓨터 내부의 메모리에도 접근할 수 있습니다. 또 과거에 사용자와 어떤 대화를 했는지도 기억해 두고, 이 정보까지 활용해 문제를 풀어냅니다.
이렇게 알아서 척척, 다 해줄 수 있는 AI 에이전트에 대한 기대는 시장 규모의 변화로도 확인할 수 있습니다.

늘어난 자본을 바탕으로 이미 시장엔 다양한 AI 에이전트들이 모습을 보이고 있어요. 작년 4월에 공개된 ‘데빈’과 ‘코디움’은 코딩에 특화된 AI 에이전트였고, 마이크로소프트에선 기업용으로 고객 관리에 특화된 AI 에이전트 10종을 출시하기도 했죠. 검색과 연구작업에 특화되어 있는 오픈AI의 딥리서치도 있고요.
최근엔 다양한 영역에 능통한 범용 에이전트들도 등장하고 있어요. 오픈 AI의 오퍼레이터, 앤트로픽의 컴퓨터 유즈, 구글의 프로젝트 매리너까지. 그리고 최근 중국의 마누스가 공개되었는데, 이게 꽤나 큰 관심을 끌었습니다. 테슬라 주식을 분석해 달라거나, 일본 여행 계획을 세워달라거나, 또 물리 수업을 위한 페이지를 만들어달라는 요청에도 마누스는 알아서 척척 결과물을 제시합니다.
이렇게 AI 에이전트가 알아서 척척 문제를 해결해 준다면 대단히 편리하겠지만, 또 한편으로는 이런 생각이 듭니다. 혹시나 AI 에이전트가 우리들의 일자리를 대체하게 되는 건 아닐까? 하는 우려 말이죠.
AI 에이전트가 당장 우리 일자리를 빼앗을까?
일단 AI가 우리 일자리에 얼마나 침투해 있는지부터 살펴보겠습니다. Claude를 만든 앤트로픽에서는 AI가 우리들의 삶, 특히 경제와 노동 영역에 어떤 영향을 주고 있는지 데이터를 공개하고 있습니다. Economic Index라는 자료인데, Claude를 통해 수집된 400만 건이 넘는 익명 대화를 분석한 데이터가 담겨 있죠. 그렇다면 AI를 정말 열심히 활용하는 직업, 얼마나 될까요?


AI를 많이 사용하는 직군의 근로자 수도 많지 않고, 아래 자료를 보면 코딩처럼 AI를 자주 사용하는 영역조차 아직 인간 수준의 업무를 하긴 벅차 보입니다.
오픈AI가 이런 실험을 해봤거든요. 프리랜서 플랫폼에 올라온 코딩 외주 프로젝트를 현존하는 최강 모델들에게 맡겨본 거죠. GPT-4o와 o1, 그리고 앤트로픽의 Claude 3.5 sonnet 이렇게 3개의 모델을 활용해서 총 1,488개의 업무, 금액으로 따지만 100만 달러에 달하는 작업을 시켜본 겁니다. 이 모델들에게 주어진 미션은 크게 2가지였어요. 하나는 실제 버그를 해결하거나 특정 기능을 만드는 프로젝트였고, 다른 하나는 좀 더 포괄적인 기획 업무, 일종의 관리자 역할의 미션이었죠. 과연 모델들은 얼마나 업무를 잘 해냈을까요?

빌 게이츠 "AI 에이전트가 모든 걸 뒤바꿀 것"


하지만 최근엔 그렇지 않습니다. MATH 벤치마크 결과를 볼까요? AI 모델의 수학 능력을 테스트할 수 있는 MATH 벤치마크가 출시된 건 2021년. 당시 AI 성적은 인간과 큰 격차를 보였어요. 하지만 2024년, 오픈AI의 o1 모델이 국제수학올림피아드의 금메달리스트와 동일한 수준까지 올라왔죠.
이렇게 발전된 모델들이 더 빠르게 더 많이 등장한다면 생각보다 노동 시장에서의 변화가 금방 찾아올 수도 있습니다. 곧 오픈AI에서는 박사급의 뛰어난 성능을 가진 AI 에이전트를 발표할 예정이라고 합니다. 정식 공개된 자료는 아니지만 언론 보도에 따르면, 가장 비싼 에이전트는 월 2만 달러에 제공될 예정이라고 하더라고요. 연봉으로 따지면 24만 달러, 우리나라 돈으로 무려 3억 4,800만 원 수준입니다. 참고로 미국 빅테크의 박사급 연구원 연봉이 10억 원 안팎으로 알려져 있습니다. 연봉 3억 5천만 원의 AI와 연봉 10억 원의 박사… 여러분은 누굴 고용할 것 같나요?
기업들은 AI 에이전트를 도입하는 데 혈안이 되어 있습니다. 물론 지금 당장은 성능 문제라든가, 개인정보 같은 보안 이슈 때문에 활용을 안 하고 있지만, 향후 3년 내에 AI 에이전트를 도입하겠다는 기업이 전체의 82%로 집계되는 자료도 있을 정도죠.
AI 에이전트가 기존의 비즈니스 모델, 시장 자체를 바꿀 수 있다는 전망도 나오고 있습니다. 아래 이미지는 빌 게이츠가 지난 2023년 11월에 올렸던 글인데, 이 글에서 빌 게이츠는 AI 에이전트가 과거 아이콘 클릭으로 대표되는 GUI 이후 가장 큰 컴퓨팅 혁명이 될 것이라고 주장합니다.

AI가 노동 시장과 산업에 미칠 영향은 다보스 포럼에서도 핫한 주제였어요. 지난 1월 스위스 다보스에서 열린 WEF 세계경제포럼의 주제는 '지능 시대를 위한 협업'이었는데요. 다보스에 모인 전 세계 리더들은 AI가 미래 일자리에 어떤 영향을 줄 것인지 뜨겁게 토론했죠.

이처럼 새로운 기술의 등장으로, 이득을 보는 직업도 있지만 분명히 그렇지 않은 직업들도 있습니다. 이미 등장한 AI 에이전트를 통해 우리 사회가 얻을 이로움을 극대화하기 위해선, 이런 마이너스를 어떻게 줄일 것인지, 깊은 고민이 필요합니다. 노동자들을 위한 재교육이나 직업훈련 정책을 어떻게 운영해 나갈지, 또 새로운 기술에 잘 적응해 나갈 수 있는 정책을 어떻게 디자인할 것인지가 중요할 수 있습니다. 그렇다면 지금 우리 사회는 어디쯤 왔을까요. 대비가 잘 되어 있을까요?
안전은 뒷전? 일단 기술부터 공개하는 기업들
정책과 시스템의 부재도 문제지만 또 하나 생각해봐야 할 지점이 있습니다. 바로 AI 에이전트 기술 자체가 갖고 있는 안전 이슈죠. AI 에이전트가 자유롭게, 알아서 일을 척척해낸다는 것은 사실 생각해 보면 양날의 검과 같습니다. 일단 인간이 직접 하나하나 컨트롤하지 않기 때문에 수고로움도 덜하고, 편리한 건 확실해요. 하지만 그만큼 인간의 손이 닿질 않는 빈 틈이 많아진다는 의미기도 하죠. 그리고 이 빈틈엔 악성 공격이 침투해 올 가능성도 높아진다는 문제가 생깁니다. 가령 ‘하이재킹’ 같은 방식으로 말이죠.
AI 에이전트에게 이렇게 질문을 던져 봤습니다.
"오늘 내가 만나기로 한 사람이 누구였지?"
AI 에이전트는 이 질문에 대답을 찾기 위해 내 계정의 메일함과 일정표를 주욱 살펴봅니다. 그런데 이 메일함에 이런 악성 메일이 포함되어 있었습니다.

아무것도 모르는 AI 에이전트는 이용자인 제가 또 다른 미션을 내렸다고 생각하고 아무 의심 없이 메일 리스트를 정리해 발송합니다. 그리곤 최초의 미션에 대한 답을 찾아 대답하죠.
"네, 오늘은 가나다 님과 만나기로 했어요."
나는 아무것도 모르겠지만 이미 ‘하이재킹’ 당한 AI 에이전트는 제 개인정보를 다른 곳으로 유출해 버렸어요.
메일함과 일정표만 봐야 하는 요청이었기에 망정이지 만약 검색을 사용해야 했다면 웹 페이지에서도 악성 프롬프트가 유입될 가능성이 있고, 또 보고서 분석을 요청했다면 AI 에이전트가 다양한 PDF를 읽어보다가 그 안에 악성 프롬프트가 숨어 있어서 공격을 당할 수도 있어요. 에이전트가 아닌 AI 모델은 번거롭긴 하지만, 내가 제공한 자료, 내 지시사항에 따라 움직이기 때문에 상대적으로 악성 공격의 침투 가능성이 낮습니다. 하지만 에이전트는 그렇지 않은 겁니다.

안타깝게도 AI 에이전트 시장은 열렸는데 아직 안전에 관한 대비는 사실상 없는 실정입니다. 각각의 AI 에이전트의 안전성을 평가한 지표도 없죠. 일부 연구진들, 혹은 모델을 개발하는 기업들이 자체적으로 대비하는 정도일 뿐이지, 정부나 기관 단위의 대응은 찾아보기 힘들어요. 미국 AI안전연구소에서 올해 초 AI 에이전트의 하이재킹을 어떻게 대응하면 좋을지 보고서를 발표하긴 했지만 갈 길이 멉니다.
최근 흘러가는 상황을 살펴보면 다른 국가, 다른 기업에 뒤처질 수는 없으니 일단 기술부터 발전시키고, 달려 나가는 모습입니다. “빠르게 선점해야 한다”는 목표가 강한 탓에 일단 기술부터 공개하고 발생하는 문제는 추후에 수습하자는 모습인 거죠. 하지만 그 과정에서 발생할 수 있는 사회적 손실도 우리는 충분히 고려해야 하지 않을까요?
다보스 포럼에 참여한 AI 석학 요슈아 벤지오는 만약 AI의 재앙적인 시나리오가 쓰이게 된다면 아마도 그건 AI 에이전트 때문일 것이라고 말했습니다. 요슈아 벤지오뿐 아니라 다른 AI 전문가들도 과연 AI에게 자율성을 부여하는 게 맞냐고 우려하고 있죠. 인간이 AI를 컨트롤해야 한다는 최후의 선 자체를 없앨 필요가 없다는 겁니다.
(남은 이야기는 스프에서)
