뉴스

'영상' 보고 배워 사람처럼 작업…정확도·속도 높아졌다

<앵커>

최근 전 세계 빅테크들이 휴머노이드 개발에 열을 올리면서 이걸 학습시키는 방식도 발전하고 있습니다. 사람이 정해준 규칙이 아니라, 휴머노이드 로봇이 영상을 보고 동작을 익혀서 사람처럼 작업한다고 하는데요.

홍영재 기자가 전해드립니다.

<기자>

휴머노이드 로봇이 비닐 소포를 집어 살펴본 뒤 뒤집어서 컨베이어 벨트에 올려놓습니다.

소포 겉면에 있는 바코드가 인식될 수 있게 동작한 겁니다.

미국 로봇 스타트업 피규어 AI가 공개한 이 휴머노이드는 사람이 작업하는 영상을 보고 학습했습니다.

사람이 정해준 규칙과 알고리즘에 따라 동작하는 게 아니라 영상에 나오는 사람의 모습을 보고 어떻게 동작할지를 터득한 겁니다.

[한재권/한양대 로봇공학과 교수 : 예전에는 시뮬레이터에서 데이터를 증폭시키거나 모션을 그대로 흉내를 내서 로봇의 행동을 학습시키거나 이런 방식을 사용했는데, 휴머노이드 로봇을 학습시키는 방식이 한 단계 업그레이드 됐다….]

10시간 분량의 작업 영상을 학습한 뒤엔 1개 소포 처리에 6.84초 걸렸는데, 60시간 분량으로 훈련시키니 4.05초로 빨라졌고, 정확도도 95%까지 높아졌습니다.

숙련된 물류센터 직원에 근접한 수준입니다.

작업 중 사람이 손을 내밀자 소포를 건네는데, 이런 행동도 영상 학습을 통해 환경 변화에 빠르고 유연하게 대처할 수 있게 된 결과입니다.

시각 정보를 기억하고 과거의 움직임을 참고하며, 손끝의 감각을 동작에 반영할 수 있게 AI 모델이 발전한 겁니다.

테슬라도 최근 사람의 작업 영상으로 학습시킨 집안일 하는 로봇을 공개했습니다.

영상 학습을 통해 종전보다 빨리 환경에 맞게 유추하고 동작할 수 있게 됐습니다.

테슬라의 목표는 온라인에 공개돼 있는 모든 사람의 행동을 학습하는 겁니다.

[한재권/한양대 로봇공학과 교수 : 생성형 AI의 특징은 데이터가 많아야 좋은 AI가 된다는 얘기입니다. 다량의 데이터를 어디서 얻을 수 있는가가 항상 숙제였거든요. '동영상을 어떻게 하면 로봇용 데이터로 전환할 수 있을까'가 굉장히 초미의 관심사였던 거죠.]

AI 모델 발전은 로봇이 인간의 동작과 그 맥락을 더 잘 이해할 수 있게 만들고 있습니다.

단순 반복 작업이 아니라 인간과 상호작용이 필요한 다양한 서비스 영역에서 로봇 활용이 확대될 거란 의미입니다.

(영상편집 : 김윤성, 디자인 : 최하늘)
Copyright Ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지

많이 본 뉴스

스브스프리미엄

스브스프리미엄이란?