Catálogo de Modelos
Modelos Modificados Disponibles
Sección titulada «Modelos Modificados Disponibles»| Modelo | Descripción | Enlace |
|---|---|---|
| Qwen2.5-VL-3B-Action | Extiende el vocabulario de Qwen2.5-VL con tokens fast (extensión especial de vocabulario para discretizar acciones continuas en tokens) | Hugging Face |
| Qwen3-VL-4B-Action | Extiende el vocabulario de Qwen3-VL con tokens fast (igual que arriba) | Hugging Face |
| pi-fast | Pesos del tokenizador de acciones pi-fast | Hugging Face |
Checkpoints de Ajuste Fino
Sección titulada «Checkpoints de Ajuste Fino»SimplerEnv / Bridge
Sección titulada «SimplerEnv / Bridge»Bridge es un dataset de manipulación sobre mesa con WidowX; Fractal es el dataset de manipulación robótica RT-1 de Google.
| Modelo | Framework | VLM Base | Descripción | WidowX | Enlace |
|---|---|---|---|---|---|
| Qwen2.5-FAST-Bridge-RT-1 | QwenFast | Qwen2.5-VL-3B | Bridge + Fractal | 58.6 | HF |
| Qwen2.5-OFT-Bridge-RT-1 | QwenOFT | Qwen2.5-VL-3B | Bridge + Fractal | 41.8 | HF |
| Qwen2.5-PI-Bridge-RT-1 | QwenPI | Qwen2.5-VL-3B | Bridge + Fractal | 62.5 | HF |
| Qwen2.5-GR00T-Bridge-RT-1 | QwenGR00T | Qwen2.5-VL-3B | Bridge + Fractal | 63.6 | HF |
| Qwen-GR00T-Bridge | QwenGR00T | Qwen2.5-VL-3B | Solo Bridge | 71.4 | HF |
| Qwen3VL-OFT-Bridge-RT-1 | QwenOFT | Qwen3-VL-4B | Bridge + Fractal | 42.7 | HF |
| Qwen3VL-GR00T-Bridge-RT-1 | QwenGR00T | Qwen3-VL-4B | Bridge + Fractal | 65.3 | HF |
| Florence-GR00T-Bridge-RT-1 | QwenGR00T | Florence-2 | Bridge + Fractal (modelo pequeño) | - | HF |
Columna WidowX: Tasa de éxito (%) en tareas del robot WidowX en SimplerEnv. Mayor es mejor.
LIBERO tiene 4 suites de tareas (Spatial, Object, Goal, Long Horizon) con 40 tareas en total. Todos los checkpoints se entrenan conjuntamente en las 4 suites. Consulta la documentación de evaluación de LIBERO.
| Modelo | Framework | VLM Base | Enlace |
|---|---|---|---|
| Qwen2.5-VL-FAST-LIBERO-4in1 | QwenFast | Qwen2.5-VL-3B | HF |
| Qwen2.5-VL-OFT-LIBERO-4in1 | QwenOFT | Qwen2.5-VL-3B | HF |
| Qwen2.5-VL-GR00T-LIBERO-4in1 | QwenGR00T | Qwen2.5-VL-3B | HF |
| Qwen3-VL-OFT-LIBERO-4in1 | QwenOFT | Qwen3-VL-4B | HF |
| Qwen3-VL-PI-LIBERO-4in1 | QwenPI | Qwen3-VL-4B | HF |
RoboCasa
Sección titulada «RoboCasa»Tareas de Mesa GR1 de RoboCasa con 24 tareas de Pick-and-Place. Consulta la documentación de evaluación de RoboCasa.
| Modelo | Framework | VLM Base | Enlace |
|---|---|---|---|
| Qwen3-VL-GR00T-Robocasa-gr1 | QwenGR00T | Qwen3-VL-4B | HF |
| Qwen3-VL-OFT-Robocasa | QwenOFT | Qwen3-VL-4B | HF |
RoboTwin
Sección titulada «RoboTwin»Benchmark de manipulación de doble brazo RoboTwin 2.0 con 50 tareas. Consulta la documentación de evaluación de RoboTwin.
| Modelo | Framework | VLM Base | Enlace |
|---|---|---|---|
| Qwen3-VL-OFT-Robotwin2-All | QwenOFT | Qwen3-VL-4B | HF |
| Qwen3-VL-OFT-Robotwin2 | QwenOFT | Qwen3-VL-4B | HF |
BEHAVIOR-1K
Sección titulada «BEHAVIOR-1K»Benchmark de tareas domésticas BEHAVIOR-1K usando el robot humanoide R1Pro. Consulta la documentación de evaluación de BEHAVIOR.
| Modelo | Descripción | Enlace |
|---|---|---|
| BEHAVIOR-QwenDual-taskall | Entrenado conjuntamente en las 50 tareas | HF |
| BEHAVIOR-QwenDual-task1 | Entrenamiento de tarea única | HF |
| BEHAVIOR-QwenDual-task6-40k | Entrenamiento conjunto de 6 tareas | HF |
| BEHAVIOR-rgp-seg | Experimento de observación con segmentación | HF |
Datasets
Sección titulada «Datasets»Datasets de Entrenamiento
Sección titulada «Datasets de Entrenamiento»| Dataset | Descripción | Enlace |
|---|---|---|
| LLaVA-OneVision-COCO | Dataset de imagen-texto para co-entrenamiento VLM (subconjunto ShareGPT4V-COCO) | HF |
| RoboTwin-Clean | Demostraciones limpias de RoboTwin 2.0 (50 por tarea) | HF |
| RoboTwin-Randomized | Demostraciones aleatorizadas de RoboTwin 2.0 (500 por tarea) | HF |
| RoboTwin-Randomized-targz | Igual que arriba, formato empaquetado tar.gz (para descarga masiva) | HF |
Datos de BEHAVIOR
Sección titulada «Datos de BEHAVIOR»| Dataset | Descripción | Enlace |
|---|---|---|
| BEHAVIOR-1K | Configuraciones de simulación del benchmark BEHAVIOR-1K | HF |
| BEHAVIOR-1K-datasets | Datasets de entrenamiento de BEHAVIOR-1K | HF |
| BEHAVIOR-1K-datasets-assets | Assets de escenas y objetos de BEHAVIOR-1K | HF |
| BEHAVIOR-1K-VISUALIZATION-DEMO | Demos de visualización de BEHAVIOR-1K | HF |
| behavior-1k-task0 | Muestra de datos de entrenamiento de tarea única | HF |
Cómo Usar un Checkpoint
Sección titulada «Cómo Usar un Checkpoint»Descarga un checkpoint y ejecuta el servidor de políticas:
# Descargar (requiere huggingface_hub)huggingface-cli download StarVLA/Qwen3VL-GR00T-Bridge-RT-1 --local-dir ./results/Checkpoints/Qwen3VL-GR00T-Bridge-RT-1
# Iniciar el servidor de políticaspython deployment/model_server/server_policy.py \ # steps_XXXXX es el conteo de pasos de entrenamiento — reemplaza con el nombre de archivo real de tu descarga # por ejemplo steps_50000_pytorch_model.pt; ejecuta `ls` para ver el nombre de archivo exacto --ckpt_path ./results/Checkpoints/Qwen3VL-GR00T-Bridge-RT-1/checkpoints/steps_XXXXX_pytorch_model.pt \ --port 5694 \ --use_bf16Luego sigue la guía de evaluación para el benchmark que desees probar (por ejemplo, SimplerEnv, LIBERO, RoboCasa, RoboTwin, BEHAVIOR).