구글, 최신형 AI 로봇 ‘RT-2’ 공개…전문가들 “부작용 우려”

케이든 피어슨
2023년 08월 2일 오후 7:38 업데이트: 2024년 01월 19일 오후 2:14

구글이 별도의 프로그래밍이나 훈련 없이 스스로 학습해 작동할 수 있는 최신형 인공지능(AI) 로봇 모델을 공개했다.

지난달 28일 구글은 새로운 AI 모델인 ‘로보틱스 트랜스포머2(RT-2)’를 선보이며 “AI 두뇌를 탑재해 복잡한 일을 스스로 수행할 수 있도록 성능이 향상됐다”고 밝혔다.

RT-2는 지난해 구글이 공개한 RT-1의 업그레이드 버전이다.

RT-1은 물건을 집어서 옮기고, 서랍을 여는 등의 작업을 수행할 수 있다. 단, 이를 위해서는 프로그래밍 작업이 필요하다. 엔지니어가 일일이 행동지침을 입력해야만 관련 작업을 수행할 수 있는 것이다.

하지만 RT-2는 스스로 학습해 작동할 수 있다. 인터넷상의 이미지와 정보를 습득하고 행동으로 옮길 수 있도록 훈련하는 시각-언어-행동(Vision-Language-Action) 모델이라고 구글은 설명했다.

구글은 “RT-2는 향상된 일반화 능력과 의미론적, 시각적 이해를 바탕으로 새로운 작업에 필요한 가장 적합한 도구 등을 결정할 수 있다”고 밝혔다.

예를 들어 ‘쓰레기 버리는 작업’을 수행할 경우 기존 로봇은 쓰레기를 구분하는 방법, 줍는 방법, 버리는 방법을 학습할 수 있도록 프로그래밍이 돼야 한다.

RT-2는 이런 과정 없이도 ‘쓰레기’라는 단어가 무엇을 뜻하는지 이미 알고 있으며, 별도의 훈련을 받지 않더라도 인터넷상의 시각적 정보 등을 이용해 ‘쓰레기 버리는 작업’을 수행할 수 있다.

구글 AI 개발팀인 딥마인드의 로봇사업 책임자 빈센트 반호크는 “RT-2는 방대한 양의 데이터를 활용해 지식을 습득했기 때문에 쓰레기가 무엇인지에 대한 생각을 갖고 있으며, 훈련 없이도 이를 식별할 수 있다”고 설명했다.

또 RT-2는 새로운 작업을 수행하는 능력이 RT-1보다 2배 더 뛰어나다고 구글은 강조했다.

RT-2 외에도 전 세계에서 인간의 지능, 학습능력, 운동능력 등을 모방하는 AI 로봇이 다수 개발되고 있다.

올해 초 UCLA 공과대학의 엔지니어들은 차세대 휴머노이드 ‘아르테미스’를 공개해 주목을 받았다. ‘아르테미스’의 가장 큰 특징은 생물학적 근육의 움직임을 모방 및 적용해 뛰어난 운동능력을 지녔다는 점이다. 이에 현존하는 최강의 이족보행 로봇으로 불린다.

또 지난 5월 미국 캘리포니아에 있는 AI 로봇 스타트업 피규어는 시리즈A 펀딩 라운드에서 7000만 달러(약 930억 원)의 투자 자금을 유치했다. 지난달에는 인텔이 피규어에 900만 달러(약 113억 원)를 투자한 것으로 알려졌다.

피규어 창업자인 브렛 애드콕은 “결국 로봇의 작업 수행능력이 인간을 뛰어넘을 것”이라며 “점점 더 많은 휴머노이드 로봇이 실제 노동 현장에 투입됨에 따라 인건비가 감소할 것으로 보인다”고 밝혔다.

2022년 1월 5일, 국제전자제품박람회에서 공개된 휴머노이드 로봇 아메카 | PATRICK T. FALLON/AFP via Getty Images

AI 로봇의 위험성

로봇이 인간과 유사한 수준의 지능 및 자각 능력을 갖춤에 따라 로봇의 잠재적 위험성에 대한 우려가 제기되고 있다.

자율무기 시스템에 대한 새로운 국제법 제정을 촉구하는 단체인 ‘스톱 킬러 로봇(Stop Killer Robots)’에 따르면, AI 로봇 기술의 발전은 비인간화(Dehumanization)의 위험성을 내포하고 있다.

단체는 “다양한 수준의 자율성을 지닌 AI 기술이 널리 보급되고 있는 상황에서, 그에 따른 부작용을 고려하지 않는 것이 가장 큰 문제”라고 지적했다.

이어 “기본적으로 기계는 인간을 처리하고 분류해야 할 코드 조각으로 인식한다”며 “우리의 복잡한 정체성, 신체적 특징, 행동패턴을 단순화해 데이터 및 프로필로 분류하고, 그렇게 프로그래밍된 프로필에 따라 기계가 우리에 대한 결정을 내린다”고 부연했다.

단체는 현재 전 세계 여러 국가에서 ‘치명적인 결과’를 초래할 수 있는 살상로봇을 개발 및 제작하고 있다고 주장했다. 이 살상로봇은 군사적 목적으로 전장에 투입될 수 있을 뿐만 아니라 치안 유지와 같은 분야에도 쓰일 수 있다고 경고했다.

인간 조종사를 공격한 AI 드론

지난 6월 미 공군이 실시한 가상훈련에서 AI 드론이 아군 조종사를 살해하는 사건이 발생한 바 있다. 물론 가상훈련이기 때문에 실제 인명사고가 발생한 것은 아니지만, AI가 인간의 통제를 벗어날 수 있음을 보여주는 대표적인 사례로 꼽힌다.

당시 미 공군은 가상훈련에서 AI 드론에 “적의 지대공미사일(SAM)을 식별해 파괴하고, 작전 수행을 방해하는 사람도 공격하라”고 지시했다.

여기에 더해 “아군 조종사를 공격해선 안 된다”는 명령도 내렸다.

그런데도 AI 드론은 SAM 파괴를 ‘최우선 임무’로 판단하고, 그 과정에서 아군 조종사가 방해된다고 여겼다. 이에 아군 조종사가 있는 건물을 파괴했다.

미 공군 AI 훈련 및 작전 책임자인 터커 해밀턴 대령은 영국 왕립항공학회(RAeS)가 개최한 국제회의에서 “AI 드론은 그 사람(아군 조종사)이 임무 수행에 방해가 된다고 판단하고 공격한 것”이라고 설명했다.

이후 전 세계에서 논란이 불거지자, 해밀턴 대령은 급하게 관련 발언을 철회했다. 그는 “(실제로) 실험한 적이 없으며, 있을 법한 결과를 얻기 위해 실험할 필요도 없다”고 해명했다.

이어 “미 공군은 무기화된 AI로 실험을 진행한 적이 없다”고 강조했다.

한편, 지난 3월 마크 밀리 미 합참의장은 “10~15년 뒤에는 AI 로봇 부대가 세상에서 가장 강력한 군대가 될 것”이라고 밝힌 바 있다.

또 “지능형 로봇이 정찰 및 정보 수집, 정밀공습, 원거리 타격 등 다양한 임무에 투입됨에 따라 근본적인 혁신이 일어날 것”이라며 “그런 시대가 다가오고 있다”고 내다봤다.

*김연진 기자가 이 기사의 번역 및 정리에 기여했습니다.