๐งฉCoRL 2025
corl
2025
conference
Plan & Search for meaningful insights
Programs
โ์/์ด๊ฐ/๋ฌ๋โ ์ค์ฌ ์ฝ์ค์ ๋ง์ถฐ ์ ๋ฆฌํ CoRL 2025 Schedule ์ ๋ฆฌ
๐ ์ผ์ ์์ฝ
- 9/27(ํ ): ์ํฌ์ ์ง์ค โ 2nd Workshop on Dexterous Manipulation (์ยท์ด๊ฐ ์ฐ๊ตฌ์ ๋คํธ์ํน/ํํ ๋ฆฌ์ผ์ ์ต์ ) (Dexterous Manipulation Workshop)
- 9/28(์ผ): ๋ฉ์ธ์ปจํผ๋ฐ์ค ์ค๋ด ์์ฃผ โ Oral 6 (Humanoid & Hardware) โ Oral 3 (Manipulation II)
- 9/29(์): ํฌ์คํฐ ์คํฌํธ๋ผ์ดํธ & ํฌ์คํฐ ๋ ํ์ฉ โ Spotlight 5, 6 ์ค์ฌ(์ค๊ฐ์ค๊ฐ ๋ฐ๋ชจ/๋ถ์ค)
- 9/30(ํ): ๋จ์ ํฌ์คํฐ/๋ฐ๋ชจ & ํค๋ ธํธ/EC Keynote ์ฒดํฌ(์๊ฐ ๋ง์ถฐ ์ด๋) (CoRL)
2025-09-27 (ํ ) โ ์ํฌ์ ๋ฐ์ด
- 09:00 โ 09:30 : ํ์ฌ ๋ฑ๋ก ๋ฐ ์คํ๋ (์์ )
- 09:30 โ 10:30 : RemembeRL Workshop โ Invited Talk 1 (์ํฌ์ ์์)
(+ ์ค๊ฐ ํด์: 10:30 โ 11:00) - 11:00 โ 12:30 : ์ํฌ์ ์ฐ์ฌ ๋ฐํ ๋ฐ ์ธ์ (TBD)
- 12:30 โ 13:30 : ์ ์ฌ์๊ฐ
- 13:30 โ 15:00 : ์ํฌ์ ํ๋ฐ ์ธ์
๋ฐ Poster Session 2
(+ ํด์: 15:00 โ 15:30) - 15:30 โ 16:30 : Poster Spotlights / ํจ๋ ํ ๋ก
- 16:30 โ 16:40 : ์ํฌ์ ์ข ๋ฃ ๋ฐ ํด๋ก์ง ๋ฆฌ๋งํฌ
2025-09-28 (์ผ) โ ๋ฉ์ธ ์ปจํผ๋ฐ์ค Day 1
- 09:00 โ 10:00 : ์ปจํผ๋ฐ์ค ๋ฑ๋ก ๋ฐ ์คํ๋
- 10:00 โ 12:00 : Oral Session 6 (DexUMI, DexSkin ์ฐธ์)
- 12:00 โ 13:00 : ์ ์ฌ
- 13:00 โ 15:00 : Oral Session 3 (KineSoft, Tactile Beyond Pixels, Cross-Sensor Touch Generation ์ฐธ์)
- 15:00 โ 15:30 : ํด์ / ๋คํธ์ํน
- 15:30 โ 18:00 : Spotlight 5 Poster (Self-supervised perception, Sim-to-Real RL, Crossing the Gap)
- 18:00 โ : ์์ ์๊ฐ / ๋ฐ๋ชจ ๋ถ์ค ํ๋ฐฉ
2025-09-29 (์) โ ๋ฉ์ธ ์ปจํผ๋ฐ์ค Day 2
- 09:00 โ 10:30 : Poster Spotlight 6 (VT-Refine, KineDex, LocoTouch, Text2Touch)
- 10:30 โ 11:30 : ์ถ๊ฐ ๊ด์ฌ ํฌ์คํฐ ํ๋ฐฉ / ํด์
- 11:30 โ 13:00 : Early Career Keynotes (Yuan, Fazeli, Pinto)
- 13:00 โ 14:00 : ์ ์ฌ
- 14:00 โ 15:30 : ๊ด์ฌ ๋ ผ๋ฌธ ์ธ์ (์ฌ๊ฒํ ๋ฐ ๋ถ์ค ๋ฐฉ๋ฌธ)
- 15:30 โ 16:00 : ํด์
- 16:00 โ 18:00 : Poster ์ค์ ๋๋ ์ถ๊ฐ ๋คํธ์ํน
- 18:00 โ : ์์ ์๊ฐ ๋๋ ์ ๋ ์ธ์ ์ฐธ์ฌ
2025-09-30 (ํ) โ ๋ฉ์ธ ์ปจํผ๋ฐ์ค Day 3 / ํค๋ ธํธ ๋ฐ์ด
- 09:00 โ 10:00 : ๋ฑ๋ก / ๋ง๋ฌด๋ฆฌ ์ค๋น
- 10:00 โ 10:30 : Jun-Ho Oh ๊ธฐ์กฐ ๊ฐ์ฐ (โThe Golden Age of Humanoid Robotsโ)
- 10:30 โ 11:00 : Kristen Grauman ๊ธฐ์กฐ ๊ฐ์ฐ (โSkill learning from videoโ)
- 11:00 โ 12:00 : ๋จ์ ๊ด์ฌ Oral/Poster ์ธ์ ๋๋ ๋ฐ๋ชจ ํ๋ฐฉ
- 12:00 โ 13:00 : ์ ์ฌ
- 13:00 โ 15:00 : ๋ถ์ค ๋ฐฉ๋ฌธ / ๋คํธ์ํน
- 15:00 โ 16:00 : ๋จ์ ๋ฐํ ์ฒญ์ทจ ๋๋ ๋ฐํ์ Q&A
- 16:00 โ 18:00 : ๋ง๋ฌด๋ฆฌ ์ ๋ฆฌ / ๋คํธ์ํน ๋ง๊ฐ
๐ค Oral ์ ํ ์ธ์
Oral 6 โ Humanoid & Hardware (ํต์ฌ ํค์๋: ์ยท์ด๊ฐยทReal World)
- DexUMI: Using Human Hand as the Universal Manipulation Interface for Dexterous Manipulation โ arXiv
- ํ์ค ํต์ฌ: ์ ์ฐฉ์ฉ ์ธ๊ณจ๊ฒฉ+๋น์ ์ธํ์ธํ ์ผ๋ก ์ธ๊ฐ ์ ๋์์ ๋ค์ํ ๋ก๋ด ํธ๋๋ก ์ ์ด, Real World ํ๊ท 86% ์ฑ๊ณต.
- ๋ฐํ๊ฐ์น ์์ธก: ๐ฅ Must-see โ ๋ฒ์ฉ ํธ๋ ์ ์ด/๋ฐ์ดํฐ ์์ง ํ์ดํ๋ผ์ธ์ด ์ค์ ์ฑ ๋์. (arXiv)
- DexSkin: High-Coverage Conformable Robotic Skin for Learning Contact-Rich Manipulation โ Project page
- ํ์ค ํต์ฌ: ์ ์ฐํ ๊ณ ๋ฐ๋ ์ ์ ์ฉ๋ํ e-skin์ผ๋ก ์๊ฐ๋ฝ ์ ๋ฉด/๋ฐฐ๋ฉด์ ์ด๊ฐ์ผ๋ก ๋ฎ์ด ์ ์ด ํ๋ถ ๊ณผ์ ์ ํ์ต/์ ๋ฌ ์์ฐ.
- ๋ฐํ๊ฐ์น ์์ธก: ๐ฅ Must-see โ ์ ๊ฐยท๋๋ฉด์ ์ด๊ฐ ํ๋์จ์ด์ Real World ํ์ต ์ ์ฉ์ด ๋งค๋ ฅ์ . (arXiv ์์ ) (DexSkin)
Oral 3 โ Manipulation II (ํต์ฌ ํค์๋: ์ํํธํธ๋ยท์ด๊ฐํํยทTactile ์์ฑ)
- KineSoft: Learning Proprioceptive Manipulation Policies with Soft Robot Hands โ arXiv
- ํ์ค ํต์ฌ: ์ํํธํธ๋ ๋ด๋ถ ๋ณํ/์คํธ๋ ์ธ ๊ธฐ๋ฐ ๊ณ ์ ๊ฐ๊ฐ์ผ๋ก ํค๋ค์คํฑ ํฐ์นญ+ํ์์กฐ๊ฑด ์ ์ด ๊ฒฐํฉํ ๋ชจ์ฌํ์ต ํ๋ ์์ํฌ.
- ๋ฐํ๊ฐ์น ์์ธก: ๐ High โ ์ํํธํธ๋ ์ค์ฌ์ฉ ๋ฐ๋ชจ/์ ํ๋ ํฅ์ ๊ทผ๊ฑฐ ๋ช ํ. (arXiv)
- Tactile Beyond Pixels: Multisensory Touch Representations for Robot Manipulation โ arXiv
- ํ์ค ํต์ฌ: ์ด๋ฏธ์งยท์ค๋์คยท๋ชจ์ ยท์๋ ฅ 4๋ชจ๋ฌ ์ด๊ฐํํ(Sparsh-X) ์ฌ์ ํ์ต์ผ๋ก ์ ์ฑ ์ฑ๊ณต๋ฅ +63%, ๊ฐ๊ฑด์ฑ +90%.
- ๋ฐํ๊ฐ์น ์์ธก: ๐ฅ Must-see โ ๋ฉํฐ๋ชจ๋ฌ ์ด๊ฐํํ์ ์ค์ผ์ผยท์ผ๋ฐํ ๊ทผ๊ฑฐ ์ ์. (arXiv)
- Cross-Sensor Touch Generation โ (์์ /์ ๋ณด ์ ํ)
- ํ์ค ํต์ฌ: ์ด๊ธฐ์ข ์ด๊ฐ์ผ์ ๊ฐ ์์ฑ/๋ฒ์ญ์ผ๋ก ๋ฐ์ดํฐ ์ฆ๊ฐยทํํ ์ ํฉ์ ๊ฒจ๋ฅํ ์์ .
- ๋ฐํ๊ฐ์น ์์ธก: ๐ Watch โ ์ธ๋ถ ๋ฉํธ๋ฆญ ๊ณต๊ฐ ์ฌ๋ถ์ ๋ฐ๋ผ ๊ฐ์น ์ํฅ ๊ฐ๋ฅ. (arXiv)
๐งช Poster Spotlights / Posters (์ฐ์ ์์ ์ ๋ ์ )
Spotlight 5 & Poster 3 (์ด๊ฐยทํด๋จธ๋ ธ์ด๋ Dexterity ์ง์ค)
- Self-supervised perception for tactile skin covered dexterous hands โ arXiv
- ํ์ค ํต์ฌ: Self-supervised Sparsh-skin ์ธ์ฝ๋๋ก ์ ์ ์ฒด์ ์๊ธฐ์์์ ์คํจ ์ ํธ๋ฅผ ์ ์ฌํํํ, ์ฑ๋ฅ +41%/ํ๋ณธํจ์จ ๊ฐ์ .
- ๋ฐํ๊ฐ์น ์์ธก: ๐ฅ Must-see โ ์ ๋ฉด ์คํจ ํ์ฉ ํผ์ ์ ยท์ ์ฑ ๋ชจ๋ ๊ฐ์ . (arXiv)
- Sim-to-Real Reinforcement Learning for Vision-Based Dexterous Manipulation on Humanoids โ arXiv
- ํ์ค ํต์ฌ: ํด๋จธ๋ ธ์ด๋ ์์ Dexterity์์ ์ค-์๋ฎฌ ์๋ํ๋, Reward ์ค๊ณ ์ผ๋ฐํ, ๋ถํ ์ฆ๋ฅ๋ก ์์ฐยท์ผ๋ฐํ ํ๋ณด.
- ๋ฐํ๊ฐ์น ์์ธก: ๐ High โ ๋ฐ๋ชจ ์์กดโ, RL ๋จ๋ ์ผ๋ก ์ ์ดํ๋ถ ๊ณผ์ ๋ฌ์ฑ. (arXiv)
- Crossing the Human-Robot Embodiment Gap with Sim-to-Real RL using One Human Demonstration โ arXiv
- ํ์ค ํต์ฌ: ๋จ 1๊ฐ ์ธ๊ฐ RGB-D ๋ฐ๋ชจ์์ ๊ฐ์ฒด๊ถค์ Reward+ํ๋ฆฌ-๊ทธ๋ฉ ํฌ์ฆ ์ด๊ธฐํ๋ก ํด๋จผ-๋ก๋ด ๊ฒฉ์ฐจ๋ฅผ RL๋ก ๋ธ๋ฆฌ์ง.
- ๋ฐํ๊ฐ์น ์์ธก: ๐ฅ Must-see โ ๋ฐ์ดํฐ ๋น์ฉ ํ์ ยทํด๋จผโ๋ก๋ด ์ ์ด ์คํจ์ฑ ํผ. (arXiv)
Spotlight 6 & Poster 3 (TactileยทRewardยทTeaching ํ์ดํ๋ผ์ธ)
- VT-Refine: Learning Bimanual Assembly with Visuo-Tactile Feedback via Simulation Fine-Tuning โ OpenReview
- ํ์ค ํต์ฌ: ์ค๋ฐ๋ชจ+๊ณ ์ถฉ์ค Tactile ์๋ฎฌ+RL ์กฐํฉ์ผ๋ก ์ ๋ฐ ์ํ ์กฐ๋ฆฝ ํ์ต(์์ฐ/์ด๋ธ๋ ์ด์ ํฌํจ).
- ๋ฐํ๊ฐ์น ์์ธก: ๐ High โ ๋น์ฃผ-์ด๊ฐ ํตํฉ์ ์ ์ ์ฌ๋ก. (OpenReview)
- KineDex: Learning Tactile-Informed Visuomotor Policies via Kinesthetic Teaching for Dexterous Manipulation โ arXiv
- ํ์ค ํต์ฌ: ํธ๋-์ค๋ฒ-ํธ๋ ํค๋ค์คํฑ ํฐ์นญ+๋น์ฃผ-Tactile ์ ์ฑ +ํ์ ์ด๋ก ์ ์ดํ๋ถ ๊ณผ์ 74.4% ๋ฌ์ฑ.
- ๋ฐํ๊ฐ์น ์์ธก: ๐ High โ ํฌ์ค/์ด๊ฐ ๊ฒฐํฉ ์ค์ฑ๋ฅ ์์น ์ ์. (arXiv)
- Text2Touch: Tactile In-Hand Manipulation with LLM-Designed Reward Functions โ Project page
- ํ์ค ํต์ฌ: LLM ๊ธฐ๋ฐ Reward ์ค๊ณ๋ฅผ ์ค์ ๋น์ -๊ธฐ๋ฐ Tactile ์ธ-ํธ๋ ํ์ ์ ์ ์ฉํด Reward๊ณตํ ๋น์ฉ ์ ๊ฐ.
- ๋ฐํ๊ฐ์น ์์ธก: ๐ Watch โ ์ค์ Tactile ํ๋์จ์ด์ LLM Reward์ ์ ์ ํ์ธ ๊ฐ์น. (efi robotics)
Spotlight 4 & Poster 2
์ด๋ ์๊ฐ ์ฌ์ ์ ๊ฐ์ถ
- LocoTouch: Learning Dexterous Quadrupedal Transport with Tactile Sensing โ arXiv
- ํ์ค ํต์ฌ: ๋ฑ๋ฉด Tactile ์ด๋ ์ด+์๋ฎฌ-์ ํฉ์ผ๋ก ๋ฌด๊ณ ์ ์ํต๋ฌผ ์ฅ๊ฑฐ๋ฆฌ ์ด๋ฐ์ 4์กฑ ๋ก๋ด์ด ์ ๋ก์ท ์ค์ ์ํ.
- ๋ฐํ๊ฐ์น ์์ธก: ๐ High โ ์ด๊ฐ์ ์ด๋์ฒด(๋ก์ฝ๋ชจ์ )์ ์ ๋ชฉํ ์ฐธ์ ์์ฉ. (arXiv)
๐๏ธ Keynotes / EC Keynotes(์ฐธ๊ณ )
- ๋ฉ์ธ ํค๋ ธํธ & EC Keynotes(์: Wenzhen Yuan, Nima Fazeli, Lerrel Pinto) โ ์ด๊ฐ/์กฐ์ ์ฃผ์ ์ ์ง์ ์ฐ๊ด๋ ๊ด์ ์ ๋ฐ์ดํธ์ ์ ์ต. ์ธ์ ์๊ฐ๋๋ ๊ณต์ ํ์ด์ง ์์ ํ์ธ. (CoRL)
โ ์ด๋/์ฒญ์ทจ ํ
- ์ฐ์ ์์ ๊ท์น: (1) Oral 6ยท3 > (2) Spotlight 5ยท6 > (3) Spotlight 4 (์ถฉ๋ ์).
- ํฌ์คํฐ ์ ๋ต: ์ ๋ชฉ๋ก์ ์ฐ์ ๋ผ์ฐํ ํ๊ณ , ๊ฐ์ ์น์ ๋ ์ธ์ ํฌ์คํฐ(์/์ด๊ฐ ํค์๋)๊น์ง ๋น ๋ฅด๊ฒ ์ค์.
- ๋ฒํผ ํ๋ณด: ์ค๋ดโํฌ์คํฐ ์ด๋ ์ ํ ์ต์ 10โ15๋ถ ์ด๋ยท๋ํ ๋ฒํผ ํ๋ณด(์ง๋ฌธ/๋คํธ์ํน ํฌํจ).
- ์๋ฃ ํ์: arXiv/ํ๋ก์ ํธ ํ์ด์ง๋ฅผ ๋ฏธ๋ฆฌ ์ฆ๊ฒจ์ฐพ๊ธฐ(๋ชจ๋ฐ์ผ)ํด ๋ถ์ค/๋ฐ๋ชจ์์ ๋ฐ๋ก ๋ ํผ๋ฐ์ค ๊ณต์ .
โ ์ง๋ฌธ ๋ฆฌ์คํธ
์ธ์ / ๋ฐํ์ | ์ง๋ฌธ ๋ด์ฉ (ํ๊ตญ์ด) | ์ง๋ฌธ ๋ด์ฉ (์์ด) |
---|---|---|
DexUMI (Oral 6) | ์ฐฉ์ฉํ ์ธ๊ณจ๊ฒฉ ์ฌ์ฉ์ ๋ง์ถค์ ์ด๋ป๊ฒ ์ด๋ฃจ์ด์ง๋์? | How is user customization achieved in the wearable exoskeleton? |
๋น์ ์ธํ์ธํ ๊ธฐ์ ์ด ๋ค์ํ ๋ก๋ด ํธ๋์ ์ด๋ป๊ฒ ์ผ๋ฐํ๋์๋์? | How does the vision-based inpainting generalize across different robotic hands? | |
์๋ก ๋ค๋ฅธ ๋ก๋ด ํธ๋ ํ๋ซํผ ๊ฐ์ ์ฑ๋ฅ ์ฐจ์ด๊ฐ ์์๋์? | Were there performance differences among different robotic hand platforms? | |
KineSoft (Oral 3) | ๋ด๋ถ ์คํธ๋ ์ธ ์ผ์์ ํด์๋์ ์๋ต ์๋๋ ์ด๋ป๊ฒ ๋๋์? | What is the resolution and response time of the internal strain sensor array? |
ํค๋ค์คํฑ ํฐ์นญ ๋ฐฉ์๊ณผ ๊ธฐ์กด IL ๋ฐฉ์์ ์ฑ๋ฅ ์ฐจ์ด๋ ๋ฌด์์ธ๊ฐ์? | What are the performance differences between kinesthetic teaching and traditional imitation learning? | |
ํฐ์นญ ๊ธฐ๋ฐ์ผ๋ก ์์ง๋ ๋ฐ์ดํฐ๋ฅผ ํตํ ์ฌํ์ฑ์ ์ด๋ค ์์ค์ธ๊ฐ์? | How reproducible are the demonstrations collected via kinesthetic teaching across different object types? | |
Tactile Beyond Pixels (Oral 3) | ๋ค ๊ฐ์ง ์ด๊ฐ ๋ชจ๋ฌ๋ฆฌํฐ ์ค ๊ฐ์ฅ ๊ธฐ์ฌ๊ฐ ์ปธ๋ downstream task๋ ๋ฌด์์ธ๊ฐ์? | Which downstream task benefited most from the four tactile modalities? |
๊ฐ ๋ชจ๋ฌ๋ฆฌํฐ์ ์ค์๋๋ ์ด๋ป๊ฒ ํ๊ฐํ์ จ๋์? | How were the importance levels of each tactile modality assessed? | |
Self-supervised ์ฌ์ ํ์ต ํ, ์ค์ ์ ์ฑ ํ์ต์๋ ์ด๋ป๊ฒ ํตํฉ๋์๋์? | After self-supervised pretraining, how was it integrated into actual policy learning? | |
Sparsh-skin (Poster) | tactile ์คํจ Self-supervised ํ์ต์์ ์ฌ์ฉํ ์ฃผ์ ํ๋ฆฌํ ์คํธ ์์ ์ ๋ฌด์์ธ๊ฐ์? | What were the main pretext tasks used in self-supervised learning for tactile skin? |
latent ํํ์์ ์ด๋ค ํน์ง์ด ๊ฐ์ฅ ์ค์ํ๋ค๊ณ ๋ณด์๋์? | Which features in the latent representation do you consider most crucial? | |
์ด ํํ์ ํ์ฉํ downstream manipulation task์ ์ฑ๋ฅ ํฅ์์ ์ด๋ ์ ๋์ธ๊ฐ์? | How much did manipulation task performance improve using these representations? | |
Sim-to-Real RL (Poster) | ์๋ฎฌ๋ ์ดํฐ๋ฅผ ํ์ค์ ๋ง์ถ๊ธฐ ์ํด ์กฐ์ ํ ํต์ฌ ํ๋ผ๋ฏธํฐ๋ ๋ฌด์์ธ๊ฐ์? | What were the key simulation parameters tuned for sim-to-real transfer? |
์ผ๋ฐํ ๊ณผ์ ์์ ๊ฐ์ฅ ์ด๋ ค์ ๋ ์ํฉ์ ๋ฌด์์ด์๋์? | What was the most challenging situation during the generalization phase? | |
์ค์ ํ๊ฒฝ์์ RL ์ ์ฑ ์ ์์ ์ฑ์ ํ๋ณดํ๊ธฐ ์ํ ์ ๋ต์ ๋ฌด์์ธ๊ฐ์? | What strategies were used to ensure RL policy stability in real-world settings? | |
Crossing the Gap (Poster) | ๋จ 1๊ฐ์ RGB-D ๋ฐ๋ชจ๋ง ์ฌ์ฉํ๋ ๊ธฐ๋ฒ์ ์ฃผ์ ์๋๋ ๋ฌด์์ธ๊ฐ์? | What is the core intention behind using only one RGB-D demonstration? |
๋จ์ผ ๋ฐ๋ชจ๊ฐ ๊ณผ์ ๋ณต์ก๋์ ๋ฐ๋ผ ์ด๋ป๊ฒ ์ฑ๋ฅ์ ์ํฅ์ ๋ฏธ์ณค๋์? | How did a single demonstration impact performance depending on task complexity? | |
์ด ๋ฐฉ์์ด ์๋ฎฌ ๊ธฐ๋ฐ ํ์ต๊ณผ ๊ฒฐํฉ๋ ๊ฒฝ์ฐ ์ด๋ค ์๋์ง๊ฐ ์๋์? | What synergies arise when combining this method with sim-based learning? | |
VT-Refine (Poster) | ์๊ฐ ๋ฐ ์ด๊ฐ ์ ๋ณด๋ ์ด๋ ์์ ์์ ์ตํฉ๋์๋์? | At what point are visual and tactile inputs fused in the control loop? |
์์ ์กฐ๋ฆฝ ๊ณผ์ ์ ๋์ด๋๋ ์ด๋ป๊ฒ ์ ์๋์๋์? | How was the difficulty level of the bimanual assembly task defined? | |
fine-tuning ์ ๋ต๊ณผ ๋ฐ๋ณต ์ ์ด ๊ตฌ์กฐ๋ฅผ ์ด๋ป๊ฒ ์ค๊ณํ์ จ๋์? | How did you design the fine-tuning strategy and iterative control structure? | |
KineDex (Poster) | ์๋ฎฌ ํ๊ฒฝ์ ๋ ธ์ด์ฆ ๋ฐ ์ค์ฐจ์ ๋ํด ์ด๋ป๊ฒ ๊ฐ๊ฑด์ฑ์ ํ๋ณดํ์ จ๋์? | How did you ensure policy robustness against noise/errors in simulation? |
ํฌ์ค/์ด๊ฐ ๊ธฐ๋ฐ ์ ์ด ์กฐ์์ ์คํจ์จ์ ์ด๋ ์ ๋์๋์? | What was the failure rate for force/tactile-based contact manipulation? | |
ํฐ์นญ ๋ฐ์ดํฐ์์ ์ ์ฑ ํ์ต ์ ์ด ์ ์ค๋ฒํค๋๋ ์ด๋ป๊ฒ ๊ด๋ฆฌํ์ จ๋์? | How did you manage overheads during the transfer from teaching data to policy learning? | |
LocoTouch (Poster) | ์ด๊ฐ ์ด๋ ์ด์ ํํ์ ์์น๋ ์ด๋ป๊ฒ ์ค๊ณ๋์๋์? | How were the shape and placement of the tactile array designed? |
zero-shot ์๋ฎฌโ์ค ์ ์ด์ ํฌํจ๋ ๋๋ฉ์ธ ๋๋คํ ์์๋ ๋ฌด์์ธ๊ฐ์? | What domain randomization factors were included in the zero-shot sim-to-real transfer? | |
์ํต ์ด๋ฐ ๊ณผ์ ์์ ์คํจ ์ฌ๋ก๋ ๋ฌด์์ด์๊ณ ์ด๋ป๊ฒ ๊ฐ์ ํ๋์? | What were the failure cases in the cylinder transport task, and how were they improved? |
+++
- FFHFlow: A Flow-based Variational Approach for Learning Diverse Dexterous Grasps with Shape-Aware Introspection
- Sim-to-Real Reinforcement Learning for Vision-Based Dexterous Manipulation on Humanoids
- RobustDexGrasp: Robust Dexterous Grasping of General Objects
- LodeStar: Long-horizon Dexterity via Synthetic Data Augmentation from Human Demonstrations
- DexTrack: Towards Generalizable Neural Tracking Control for Dexterous Manipulation from Human References
- Morphologically Symmetric Reinforcement Learning for Ambidextrous Bimanual Manipulation
- Vision in Action: Learning Active Perception from Human Demonstrations
- Point Policy: Unifying Observations and Actions with Key Points for Robot Manipulation
- CDP: Towards Robust Autoregressive Visuomotor Policy Learning via Causal Diffusion
- D-Cubed: Latent Diffusion Trajectory Optimisation for Dexterous Deformable Manipulation
- Humanoid Policy ~ Human Policy
- ClutterDexGrasp: A Sim-to-Real System for General Dexterous Grasping in Cluttered Scenes
- RoboArena: Distributed Real-World Evaluation of Generalist Robot Policies
- Training Strategies for Efficient Embodied Reasoning
- ฯ0.5: a Vision-Language-Action Model with Open-World Generalization
- DemoSpeedup: Accelerating Visuomotor Policies via Entropy-Guided Demonstration Acceleration
- ImMimic: Cross-Domain Imitation from Human Videos via Mapping and Interpolation
- X-Sim: Cross-Embodiment Learning via Real-to-Sim-to-Real
- SAIL: Faster-than-Demonstration Execution of Imitation Learning Policies
- Streaming Flow Policy: Simplifying diffusion/flow-matching policies by treating action trajectories as flow trajectories
- Steering Your Diffusion Policy with Latent Space Reinforcement Learning
- Real2Render2Real: Scaling Robot Data Without Dynamics Simulation or Robot Hardware
- DexSkin: High-Coverage Conformable Robotic Skin for Learning Contact-Rich Manipulation
- Learning Visuotactile Skills with Two Multifingered Hands
- 3D-ViTac: Learning Fine-Grained Manipulation with Visuo-Tactile Sensing
- GELLO: A General, Low-Cost, and Intuitive Teleoperation Framework for Robot Manipulators