PaperReview-Practice/PaperReviews

[논문리뷰]Manipulation Grasping [Vision-based Robotic Grasping From Object Localizat

weasel7 2022. 3. 5. 23:57
728x90

- Robot이 물체를 집기 위한 방법은 어떤 것이 있을까? 2-finger 에서부터 5-finger 그리고 suction gripper등 다양한 방식으로 물체를 집을 수 있을 것이다.
다양한 방법 중에 2-finger를 이용하는 방법에서 파지점을 어떻게 고를 것인지 공부해 볼 것이다.
 

"Vision-based Robotic Grasping From Object Localization, Object Pose Estimation to Grasp Estimation for Parallel Grippers: A Review"


에서는 2D방식에서 부터 3D 방식 Grasp pose를 찾는 방식까지 다양한 접근에 대해서 리뷰 해 주고 있다.
Challenges and Future Directions 만을 번역하자면,
 
본 논문은 Object localization, object pose estimation and grasp estimation에 대해서 review하고 있다.
이 서베이 논문의 목적은 어떻게 성공적인 grasp를 할까 초기 데이터에 대해서의 종합적인 이야기를 하고 있다.
방법들에 대해 다양하게 대해서 소개하고 있고, 데이터셋에 대해 비교하고 있다.
비록 많은 알고리즘들이 로봇틱 grapsing task에서 제안 되었지만, 여전히 도전적인 과제다! 뭐 예를 들어 불충분한 정보의 데이터에서나 아니면 불충분한 양의 데이터라던지 generalities한 grasping에서 등등 어려운 상황들이 많다
 

1. 불충분한 정보의 데이터

- 현재는 대부분의 input이 결정되어있는데 one RGB-D image from on fixed position에서 배경 정보가 부족할 때? 이건 진짜 파지 정보를 결정하기 어렵다 왜냐면 object의 전체 geometry한 정보를 알 수 없기 때문이다.
- 이 도전을 목표로 몇 가지 접근이 있는데
 
1) 첫 번째 전략은 멀티뷰 데이터를 활용하는 것입니다. 여러 뷰에서 보면 좀 더 정보를 얻을 수 있다
- 로봇 팔의 자세에 기반한 방법[Zeng et al., 2017b; Blomqvist et al., 2020]
"Multi-view self-supervised deep learning for 6d pose estimation in the amazon picking challenge"
 
- Slam method [Dai et al., 2017]을 데이터 병합.
"Bundle-fusion: Real-time globally consistent 3d reconstructions using on the fly surface reintegration"
 
- 다중 뷰 데이터를 융합하는 대신 가장 잘 파악되는 뷰를 명시적으로 선택할 수도 있습니다[Morrison et al., 2019].
 
 
2) 두 번째는 햅틱 정보와 같은 다중 센서 데이터를 포함하는 것입니다.(확인 필요)
- [Lee et al., 2019; Falco et al., 2019; Hogan et al., 2020]
 
 
 

2. 불충분한 양의 Training data

 

3. Generalities in grasping novel objects

- 새로운 Object 학습되지 않는 오브젝트에 대해서 말하는 것 같다

4. lies in grasping transparent objects

- 투명한 Object 말하는 것 같다

728x90