OpenAI, 가상현실(AR)에서 '배우는 로봇' AI 알고리즘 발표
OpenAI, 가상현실(AR)에서 '배우는 로봇' AI 알고리즘 발표
  • 최광민 기자
  • 승인 2017.05.21 09:12
  • 댓글 0
이 기사를 공유합니다

비전 네트워크(vision network)와 모방 네트워크(imitation network)라는 두 개의 신경 네트워크(neural networks)에 의해 구동
가상현실(AR)에서 '배우는 로봇'(사진:OpenAI)

테슬라와 스페이스엑스(SpaceX)의 엘론 머스크(Elon Musk) 회장, 와이 컴비네이터(Y Combinator)의 샘 알트만(Sam Altman) 사장, 링크트인(LinkedIn)의 리드 호프먼(Reid Hoffman) 회장, 아마존 웹서비스(AWS), 인포시스(Infosys), YCR Research 등이 기업 후원자로 참여하여 총 10억 달러를 후원하여 2015년에 설립된 비영리 단체인 OpenAI가 시뮬레이션 환경(AR)에서 ‘로봇 교육 프로그램’ 개발에 대해 지난 16일(현지시각) 발표했다. (참고: 아래는 '배우는 로봇' 영상)

OpenAI는 이번에 발표된 ‘원샷 모방 학습(one-shot imitation learning)’ 알고리즘을 사용하여 인간이 가상현실(VR) 공간에서 한 번만 데모를 수행하면, 로봇이 현실에서 같은 과제를 해결할 수 있게 된다는 매우 빠른 훈련 방법이 실현되었다고 밝혔으며, 현재 이 시스템은 프로토 타입 단계이지만, 멀지 않은 시간에 범용 로봇 시스템에 통합할 예정이라고 밝혔다. (참고: 아래 영상은 관련 '원샷 모방 학습' 개요로 코넬대학/Cornell University의 얀 두안/Yan Duan이 게시한 영상이다)

이 시스템은 시뮬레이트(simulated) 된 로봇과 하드웨어의 실험을 구분하는 '현실 격차(reality gap)'를 연결하면 향상된 데이터 가용성을 통해 로봇 연구를 가속화 할 수 있다. OpenAI가 개발한 새로운 알고리즘은 ‘원샷 모방 학습(one-shot imitation learning)’을 통해 로봇이 새 작업을 수행하는 방법에 의사소통을 할 수 있도록 가상현실(VR) 환경에서 하나의 데모가 주어지면 로봇은 임의의 구성에서 인간과 동일한 작업을 학습해 주어진 작업을 해결할 수 있다.

사진설명: 시스템은 시뮬레이터 내에서 제공되는 단일 데모에서 동작을 학습한 다음 실제로 다른 설정에서 동작을 재현할 수 있다.(그림을 클릭하면 GIF파일로 변환됩니다)(사진:OpenAI)

이 시스템은 비전 네트워크(vision network)와 모방 네트워크(imitation network)라는 두 개의 신경 네트워크(neural networks)에 의해 구동되며, 비전 네트워크가 로봇에 탑재된 카메라에 촬영된 이미지를 사용하여 로봇에 물건의 위치를 판정한다. 이 네트워크는 미리 다양한 VR 이미지에서 훈련된 것이며, 모방 네트워크가 녹화된 데모를 참조하고 작업의 목적을 이해하고 로봇은 현실에서 처음 세팅이 다른 경우에도 작업을 완성시킨다.

사진설명: 시스템은 시뮬레이터 내에서 제공되는 단일 데모에서 동작을 학습한 다음 실제로 다른 설정에서 동작을 재현할 수 있다(사진:OpenAI)

비전 네트워크는 로봇의 카메라에서 이미지를 수집하여 객체의 위치를 ​​나타내는 상태를 출력하고 조명, 텍스처 및 객체의 다른 요소와 시뮬레이션 이미지를 훈련한다. (비전 시스템은 실제 이미지에 대해 훈련된 적이 없다.)  모방 네트워크는 데모를 관찰하고, 작업의 의도를 추론하기 위해 프로세스를 처리한 다음, 다른 시작 구성에서 시작하여 작업 의도를 성취한다. 이러한 훈련은 다른 방법을 일절 사용하지 않고 로봇 훈련을 시뮬레이션 환경에서 제공하므로 어려운 환경에서 작동하는 로봇의 훈련에도 사용 가능하다.

참고) 인공지능 관련 'OpenAI' API 다운 (바로가기)

 

Tag
#N

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.