콘텐츠로 이동

모델 저장소

모델설명링크
Qwen2.5-VL-3B-ActionQwen2.5-VL 어휘에 fast 토큰 추가(연속 액션을 토큰으로 이산화하기 위한 특수 어휘 확장)Hugging Face
Qwen3-VL-4B-ActionQwen3-VL 어휘에 fast 토큰 추가(위와 동일)Hugging Face
pi-fastpi-fast 액션 토크나이저 가중치Hugging Face

Bridge는 WidowX 테이블탑 조작 데이터셋이고, Fractal은 Google의 RT-1 로봇 조작 데이터셋입니다.

모델프레임워크기본 VLM설명WidowX링크
Qwen2.5-FAST-Bridge-RT-1QwenFastQwen2.5-VL-3BBridge + Fractal58.6HF
Qwen2.5-OFT-Bridge-RT-1QwenOFTQwen2.5-VL-3BBridge + Fractal41.8HF
Qwen2.5-PI-Bridge-RT-1QwenPIQwen2.5-VL-3BBridge + Fractal62.5HF
Qwen2.5-GR00T-Bridge-RT-1QwenGR00TQwen2.5-VL-3BBridge + Fractal63.6HF
Qwen-GR00T-BridgeQwenGR00TQwen2.5-VL-3BBridge 단독71.4HF
Qwen3VL-OFT-Bridge-RT-1QwenOFTQwen3-VL-4BBridge + Fractal42.7HF
Qwen3VL-GR00T-Bridge-RT-1QwenGR00TQwen3-VL-4BBridge + Fractal65.3HF
Florence-GR00T-Bridge-RT-1QwenGR00TFlorence-2Bridge + Fractal(소형 모델)-HF

WidowX 열: SimplerEnv WidowX 로봇 태스크에서의 성공률(%). 높을수록 좋습니다.

LIBERO는 4개의 태스크 세트(Spatial, Object, Goal, Long Horizon)로 구성되며 총 40개의 태스크가 있습니다. 모든 체크포인트는 4개 세트를 함께 학습한 것입니다. LIBERO 평가 문서를 참조하세요.

모델프레임워크기본 VLM링크
Qwen2.5-VL-FAST-LIBERO-4in1QwenFastQwen2.5-VL-3BHF
Qwen2.5-VL-OFT-LIBERO-4in1QwenOFTQwen2.5-VL-3BHF
Qwen2.5-VL-GR00T-LIBERO-4in1QwenGR00TQwen2.5-VL-3BHF
Qwen3-VL-OFT-LIBERO-4in1QwenOFTQwen3-VL-4BHF
Qwen3-VL-PI-LIBERO-4in1QwenPIQwen3-VL-4BHF

RoboCasa GR1 테이블탑 태스크로, 24개의 Pick-and-Place 태스크가 포함됩니다. RoboCasa 평가 문서를 참조하세요.

모델프레임워크기본 VLM링크
Qwen3-VL-GR00T-Robocasa-gr1QwenGR00TQwen3-VL-4BHF
Qwen3-VL-OFT-RobocasaQwenOFTQwen3-VL-4BHF

RoboTwin 2.0은 50개의 태스크를 포함하는 양팔 조작 벤치마크입니다. RoboTwin 평가 문서를 참조하세요.

모델프레임워크기본 VLM링크
Qwen3-VL-OFT-Robotwin2-AllQwenOFTQwen3-VL-4BHF
Qwen3-VL-OFT-Robotwin2QwenOFTQwen3-VL-4BHF

R1Pro 휴머노이드 로봇을 사용하는 BEHAVIOR-1K 가정용 태스크 벤치마크입니다. BEHAVIOR 평가 문서를 참조하세요.

모델설명링크
BEHAVIOR-QwenDual-taskall50개 전체 태스크에 대해 공동 학습HF
BEHAVIOR-QwenDual-task1단일 태스크 학습HF
BEHAVIOR-QwenDual-task6-40k6개 태스크 공동 학습HF
BEHAVIOR-rgp-seg세그멘테이션 관찰 실험HF

데이터셋설명링크
LLaVA-OneVision-COCOVLM 공동 학습을 위한 이미지-텍스트 데이터셋(ShareGPT4V-COCO 서브셋)HF
RoboTwin-CleanRoboTwin 2.0 클린 시연(태스크당 50개)HF
RoboTwin-RandomizedRoboTwin 2.0 랜덤화된 시연(태스크당 500개)HF
RoboTwin-Randomized-targz위와 동일, tar.gz 패키지 형식(대량 다운로드용)HF
데이터셋설명링크
BEHAVIOR-1KBEHAVIOR-1K 벤치마크 시뮬레이션 설정HF
BEHAVIOR-1K-datasetsBEHAVIOR-1K 학습 데이터셋HF
BEHAVIOR-1K-datasets-assetsBEHAVIOR-1K 씬 및 오브젝트 에셋HF
BEHAVIOR-1K-VISUALIZATION-DEMOBEHAVIOR-1K 시각화 데모HF
behavior-1k-task0단일 태스크 학습 데이터 샘플HF

체크포인트를 다운로드하고 정책 서버를 실행합니다:

Terminal window
# 다운로드 (huggingface_hub 필요)
huggingface-cli download StarVLA/Qwen3VL-GR00T-Bridge-RT-1 --local-dir ./results/Checkpoints/Qwen3VL-GR00T-Bridge-RT-1
# 정책 서버 시작
python deployment/model_server/server_policy.py \
# steps_XXXXX는 학습 스텝 수입니다 — 다운로드한 실제 파일명으로 교체하세요
# 예: steps_50000_pytorch_model.pt; `ls`로 정확한 파일명을 확인하세요
--ckpt_path ./results/Checkpoints/Qwen3VL-GR00T-Bridge-RT-1/checkpoints/steps_XXXXX_pytorch_model.pt \
--port 5694 \
--use_bf16

그런 다음 테스트하려는 벤치마크의 평가 가이드를 따르세요(예: SimplerEnv, LIBERO, RoboCasa, RoboTwin, BEHAVIOR).