본문 바로가기
엑쓸신잡/영화로운 AI

임박한 ‘1가구 1로봇 집사’

by starshines 2024. 7. 25.

   

    독자 여러분을 가장 힘들게 만드는 집안일은 무엇인가요? 요리, 설거지, 빨래, 청소, 각종 쓰레기 버리기(특히 음식 쓰레기!), 다시 요리, 설거지… 끝없는 가사의 굴레는 무한한 도돌이표입니다. 우리나라에서는 빨래 건조기, 로봇청소기, 식기세척기를 통틀어 ‘3대 이모님’이라고 칭송할 정도이니 집안일로부터 완전히 자유로워지는 순간은 진정한 인류 해방의 날일지도 모릅니다. ‘3대 이모님’이 존재하시기 전에는 ‘세탁기 이모님’께서 여성이 빨래에 투입해야 하는 시간을 대폭 감소시키셔서 여성의 사회 활동 참여를 촉진하시기도 했었습니다.

    기술이 인간과 사회를 어떻게 바꿀 것인지를 누구보다 먼저 고민하는 SF 작가들도 가사 노동에 대해 고민했습니다. 아서 클라크, 로버트 A. 하인라인과 함께 ‘3대 SF 거장’으로 불리고 ‘로봇 3원칙’을 제시한 것으로도 유명한 아이작 아시모프도 그랬습니다. 그는 “인간이 하기 싫은 귀찮은 일들을 로봇에게 다 맡길 수 있는 미래는 어떤 모습일까?”라는 질문에서 출발해 영화 <바이센테니얼 맨(Bicentennial Man)>의 원작 소설을 썼습니다. 영화 속에 등장하는 안드로이드(인간의 모습을 한 로봇) ‘앤드류(로빈 윌리엄스)’는 요리와 청소 같은 기본적인 집안일뿐만 아니라 아이 돌보기와 정원 손질도 잘합니다. 심지어 동종의 다른 가사 로봇보다 더 뛰어난 ‘앤드류’는 인간을 능가하는 지능과 지적 호기심을 보유하고 있습니다. 손을 매우 잘 쓰는 앤드류는 목공예도 잘하고, 피아노 연주 실력도 빼어나죠.    

 

[아이와도 잘 놀아주는 앤드류(로빈 윌리엄스)’]

 

    영화 <바이센테니얼 맨>은 20세기말인 1999년에 개봉한 영화여서 지금 보면 안드로이드의 몸체, 시각효과, 특수효과의 완성도가 좀 떨어져 보이긴 합니다. 하지만 안드로이드 ‘앤드류’를 연기한 대배우 로빈 윌리엄스가 극을 안정적으로 끌고 갑니다. 고도로 발달한 로봇인 ‘앤드류’가 자아 정체성을 찾고 자유와 사랑을 얻기 위해 애쓰는 것을 보면서 필자는 생각 없이 일상을 흘려보내는 스스로의 모습을 돌아보기도 했습니다.

 

[턱시도를 입고 둘째 딸의 결혼식에 참석해 아버지(샘 닐)와 대화를 나누는 앤드류]

 

    25년 전의 영화 속 이야기가 이제 눈앞의 현실이 되어 가고 있습니다. 인공지능의 눈부신 발전과 함께 로봇도 하루가 다르게 진일보 중입니다. 이미 작년 7월에 구글은 ‘앤드류’와 같은 집사 로봇의 가능성을 입증한 ‘RT-2(Robotic Transformer 2)’를 선보였습니다. RT-2는 프로그래밍이나 훈련이 없어도 인터넷의 이미지와 텍스트를 기반으로 스스로 필요한 기술을 획득해 행동할 수 있습니다. 즉, ‘시각-언어-행동’ 모델을 탑재한 것입니다. 거대언어모델(LLM, Large Language Model)을 두뇌처럼 사용해 이런 능력을 얻은 것이죠. 이처럼 로봇이 LLM을 내장하고 있으면 사람은 자연어 명령만으로 로봇을 조종할 수 있습니다. 공장이 아니라 일상생활공간에서도 로봇을 편리하게 이용하는 것이 가능해집니다. 실제로 RT-2는 바나나 껍질, 과자 봉지와 같은 쓰레기가 무엇인지 스스로 구별하고 집어서 버렸습니다. 인터넷의 무수한 데이터에서 지식을 습득했기 때문에 쓰레기에 대한 개념을 가지고 있는 셈이어서 쓰레기를 정확히 지목할 수 있는 것이죠. 그렇다면 세탁기에 빨래를 넣은 후 작동시키고 식기세척기로 설거지를 완료하는 가사 도우미 역할도 할 수 있을 것입니다.  

 

[2023 7월에 구글이 공개한 AI 로봇 ‘RT-2’ (출처 : 구글 딥마인드 블로그)]

 

    RT-2가 소개된 지 1년 정도 지난 시점인 지난 7월 11일(현지시간), 구글 딥마인드는 새로운 논문을 발표했습니다. ‘모빌리티 VLA’라는 개념을 소개한 논문으로 모빌리티 VLA는 시각언어모델(VLM, Visual Language Model)에 ‘내비게이션’이라는 ‘행동(Action)’을 추가한 것입니다. 모빌리티 VLA를 활용하면 시각 및 언어 기반의 지시를 통해 로봇에게 간략히 특정 공간을 소개해 주고 로봇이 그 공간 안에서 자유롭게 활동할 수 있게 만들 수 있습니다. 로봇은 사람의 설명에 따라서 한 번만 보고 들으면 공간에 대해 정확한 안내를 할 수 있게 됩니다. 구글의 제미나이 1.5 프로 기반으로 작동하므로 추론을 할 수 있고 시각적 정보도 이해합니다. 가령 로봇에게 “내가 지금 들고 있는 물건을 어디에 가져다 놔야 해?”라고 물으면 수납할 장소를 바로 알려 주는 것이죠.

 

[최근 구글이 공개한 길 안내 로봇 (출처 : 구글 딥마인드 블로그)]

 

    몇 년 사이 비약적으로 발전한 인공지능은 인간과 실시간으로 자연스럽게 상호작용하는 로봇의 상용화를 앞당기고 있습니다. 영화 <바이센테니얼 맨>의 앤드류처럼 다재다능한 AI 로봇 집사가 ‘새로운 이모님’으로 등극할 날이 머지않은 것 같습니다. 그 날이 오면, 여러분은 앤드류를 사기 위해 얼마의 돈을 지불하시겠습니까? (끝)

 

 

 

 

글 | IR/PR팀 김태혁

 

 

 

 

 

 

 

댓글