본문 바로가기

Others

(10)
CO-GYM: 빠르고 효율적인 강화학습 프레임워크 작성자: 김장원 / 박사과정 (jangwonkim@postech.ac.kr) CO-GYM: High-Performance & Researcher-Friendly Reinforcement Learning Algorithm Suites링크: https://github.com/jangwonkim-cocel/CO_GYM 쉽게 적용할 수 있는 빠르고 강력한 분산 강화학습 프레임워크를 구축해 보았습니다. 본 프레임워크는 처음 강화학습을 시작하시는 분들부터 현업에 종사하고 계시는 엔지니어, 연구자분들에게 일차적으로 빠르게 강화학습 기반 정책을 구현해 보는 데 도움이 될 것이라 믿습니다.CO-GYM은 고성능이며 연구자 친화적인 강화 학습 알고리즘 모음입니다. 모든 알고리즘은 독립적인 파이썬 파일로 작성되어 있으며, 다..
Nips challenge - Real Robot Challenge 2022 도전기 (3) 참여자 : 백종찬(POSTECH), 김한결(POSTECH), 권우경(ETRI & Polaris 3D) 작성자 : 김한결 / 석사과정(gksruf621@postech.ac.kr) 지난 포스터에서는 RRC 2022의 문제 설계에 대해 살펴보았다. 이번 포스터에서는 시뮬레이션 단계에서 테스트 해본 알고리듬들을 소개할 예정이다. 알고리듬을 소개하기 이전에 데이터에 대해 잠시 언급해야할 부분이 있다. rrc_2022_datasets 패키지를 다운 받으면 TriFingerDatasetEnv에 접근할 수 있고, D4RL과 동일하게 get_dataset() 매소드를 통해 데이터 접근이 가능하다. 단, TriFingerDatasetEnv를 evaluation하는 과정에서 얻는 데이터들은 오직 평가를 위해서만 사용되어야하..
Nips challenge - Real Robot Challenge 2022 도전기 (2) 참여자 : 백종찬(POSTECH), 김한결(POSTECH), 권우경(ETRI & Polaris 3D) 작성자 : 김한결 / 석사과정(gksruf621@postech.ac.kr) Real Robot Challenge 2022 (RRC 2022) Learn Dexterous Manipulation on a Real Robot 지난 포스터에서는 RRC 2022개요에 대해 설명하였다. 이번 포스터에서는 강화학습 관점의 문제 설계를 살펴볼 내용이다. Observation space robot_observation position velocity torque fingertip_force fingertip_position fingertip_velocity robot_id object_observation positi..
Nips challenge - Real Robot Challenge 2022 도전기 (1) 참여자 : 백종찬(POSTECH), 김한결(POSTECH), 권우경(ETRI & Polaris 3D) 작성자 : 김한결 / 석사과정(gksruf621@postech.ac.kr) Real Robot Challenge 2022 Learn Dexterous Manipulation on a Real Robot 혁신인재 4.0 수업 일환으로 연구실 형, 참여 기업 연구원님과 함께 Nips challenge에 참여하기로 했다. 챌린지의 목표는 dexterous manipulation task(push & lift)를 offline 강화학습 또는 imitation learning으로 높은 점수를 얻는것이다. push task는 목표하는 지점에 큐브를 옮기는 task, lift task는 특정 pos로 큐브를 들어올리..
Mujoco 환경 세팅 - 참고용 Mujoco 환경 세팅 1. Anaconda 설치 1.1 www.anaconda.com/products/individual 1.2 본인 컴퓨터와 호환되는 버전 찾아서 다운로드(일반적으로 list중에 가장 위에서 있는 것 사용하면 됩니다) (1.2.1 sha256sum 으로 무결성 확인) 1.3 sudo bash [Anaconda....다운받은 sh 이름] 중간중간 나오는 것들 Enter 혹은 YES (첫 Yes를 입력하는 부분에서 현재 유저 디렉토리가 맞는지 확인 필요. 종종 그냥 root 로 되어 있는 경우 있음. root인 경우 /home/[유저 이름]/anaconda3 를 입력해준다) e.g. [/root/anaconda3] >>> /home/ai1/anaconda3 1.4 설치가 완료된 후 Ana..
MJCF 파일 분석(5) - 나만의 Manipulator task를 mujoco에서 만들자 작성자 : 김한결 / 석박통합과정 (gksruf621@postech.ac.kr) 원래는 XML 파일과 Env가 전부 포함된 파일을 git에 올리고 공개하려고 했는데 비슷한 내용으로 일을 하게되어 추후 공개 허락을 받고 공개하도록 하겠습니다. 그래도 여기까지 읽어주신 분들을 위해 대략적으로 어떤 방식으로 만들었는지를 공유하려고 합니다. MJCF 파일 분석(4)에서 언급했던 의 Indy7_OpenDoorEnv class를 담은 python 파일에 필요한 내용들을 살펴보겠습니다. 1. mujoco_env.MujocoEnv 2. _get_obs 3. step 4. reset_model 5. viewer_setup 6. reward shaping 이미 gym에 존재한 파일들을 살펴보시면 위 내용은 쉽게 파악하실 ..
MJCF 파일 분석(4) - 나만의 Manipulator task를 mujoco에서 만들자 작성자 : 김한결 / 석박통합과정 (gksruf621@postech.ac.kr) MJCF 파일 분석(3)까지 내용으로 MJCF 파일에 대한 분석은 대부분 끝이 났다. 이제부터는 python으로 environment를 만들때 어떻게 해야되는 지를 살펴보면 된다.(reward design이나 observation 가져오기 등등) 연구실 형이 최근에 quadruped 로봇을 gym으로 불러오게끔 만들어 놓은게 있는데 이를 사용해보기로 했다. (MJCF 파일 분석(1)에서 최대한 library dependency를 줄이고자 한다고 해놓고...그래도 gym이 하는 일이 거의 없기 때문에...) 그래서 이번 글은 반성의 의미로 gym이 어떻게 모델을 불러오는지 간단히 정리해보려고 한다. 우선 gym은 패키지이기 때..
MJCF 파일 분석(3) - 나만의 Manipulator task를 mujoco에서 만들자 작성자 : 김한결 / 석박통합과정 (gksruf621@postech.ac.kr) MJCF 파일 분석(2)에 이어서 environment를 만들어 보려고 한다. 처음에는 아래 링크에 reference가 아주 친절하게 나와있기 때문에 만만히 봤는데, API가 C++ 기반으로 작성되었다보니 생각보다 까다로웠다. 그래도 mujoco 라이브러리안에 "robotics"나 "mujoco"를 참고하면 비교적 쉽게 따라할 수 있으며, mujoco-py 1.50.0버전 refer도 제공하고 있다. MuJoCo reference https://mujoco.readthedocs.io/en/latest/APIreference.html#mjmodel API Reference — MuJoCo documentation These a..