Model Zoo
Verfuegbare modifizierte Modelle
Abschnitt betitelt „Verfuegbare modifizierte Modelle“| Modell | Beschreibung | Link |
|---|---|---|
| Qwen2.5-VL-3B-Action | Erweiterung des Qwen2.5-VL-Vokabulars um Fast-Tokens (spezielle Vokabularerweiterung zur Diskretisierung kontinuierlicher Aktionen in Tokens) | Hugging Face |
| Qwen3-VL-4B-Action | Erweiterung des Qwen3-VL-Vokabulars um Fast-Tokens (wie oben) | Hugging Face |
| pi-fast | pi-fast Action-Tokenizer-Gewichte | Hugging Face |
Feinabstimmungs-Checkpoints
Abschnitt betitelt „Feinabstimmungs-Checkpoints“SimplerEnv / Bridge
Abschnitt betitelt „SimplerEnv / Bridge“Bridge ist ein WidowX-Tischmanipulationsdatensatz; Fractal ist Googles RT-1-Robotermanipulationsdatensatz.
| Modell | Framework | Basis-VLM | Beschreibung | WidowX | Link |
|---|---|---|---|---|---|
| Qwen2.5-FAST-Bridge-RT-1 | QwenFast | Qwen2.5-VL-3B | Bridge + Fractal | 58.6 | HF |
| Qwen2.5-OFT-Bridge-RT-1 | QwenOFT | Qwen2.5-VL-3B | Bridge + Fractal | 41.8 | HF |
| Qwen2.5-PI-Bridge-RT-1 | QwenPI | Qwen2.5-VL-3B | Bridge + Fractal | 62.5 | HF |
| Qwen2.5-GR00T-Bridge-RT-1 | QwenGR00T | Qwen2.5-VL-3B | Bridge + Fractal | 63.6 | HF |
| Qwen-GR00T-Bridge | QwenGR00T | Qwen2.5-VL-3B | Nur Bridge | 71.4 | HF |
| Qwen3VL-OFT-Bridge-RT-1 | QwenOFT | Qwen3-VL-4B | Bridge + Fractal | 42.7 | HF |
| Qwen3VL-GR00T-Bridge-RT-1 | QwenGR00T | Qwen3-VL-4B | Bridge + Fractal | 65.3 | HF |
| Florence-GR00T-Bridge-RT-1 | QwenGR00T | Florence-2 | Bridge + Fractal (kleines Modell) | - | HF |
WidowX-Spalte: Erfolgsrate (%) bei WidowX-Roboteraufgaben in SimplerEnv. Hoeher ist besser.
LIBERO umfasst 4 Aufgabensuiten (Spatial, Object, Goal, Long Horizon) mit insgesamt 40 Aufgaben. Alle Checkpoints werden gemeinsam auf allen 4 Suiten trainiert. Siehe LIBERO-Evaluationsdokumentation.
| Modell | Framework | Basis-VLM | Link |
|---|---|---|---|
| Qwen2.5-VL-FAST-LIBERO-4in1 | QwenFast | Qwen2.5-VL-3B | HF |
| Qwen2.5-VL-OFT-LIBERO-4in1 | QwenOFT | Qwen2.5-VL-3B | HF |
| Qwen2.5-VL-GR00T-LIBERO-4in1 | QwenGR00T | Qwen2.5-VL-3B | HF |
| Qwen3-VL-OFT-LIBERO-4in1 | QwenOFT | Qwen3-VL-4B | HF |
| Qwen3-VL-PI-LIBERO-4in1 | QwenPI | Qwen3-VL-4B | HF |
RoboCasa
Abschnitt betitelt „RoboCasa“RoboCasa GR1 Tischaufgaben mit 24 Pick-and-Place-Aufgaben. Siehe RoboCasa-Evaluationsdokumentation.
| Modell | Framework | Basis-VLM | Link |
|---|---|---|---|
| Qwen3-VL-GR00T-Robocasa-gr1 | QwenGR00T | Qwen3-VL-4B | HF |
| Qwen3-VL-OFT-Robocasa | QwenOFT | Qwen3-VL-4B | HF |
RoboTwin
Abschnitt betitelt „RoboTwin“RoboTwin 2.0 Zweiarm-Manipulations-Benchmark mit 50 Aufgaben. Siehe RoboTwin-Evaluationsdokumentation.
| Modell | Framework | Basis-VLM | Link |
|---|---|---|---|
| Qwen3-VL-OFT-Robotwin2-All | QwenOFT | Qwen3-VL-4B | HF |
| Qwen3-VL-OFT-Robotwin2 | QwenOFT | Qwen3-VL-4B | HF |
BEHAVIOR-1K
Abschnitt betitelt „BEHAVIOR-1K“BEHAVIOR-1K Haushaltsaufgaben-Benchmark mit R1Pro-Humanoiden. Siehe BEHAVIOR-Evaluationsdokumentation.
| Modell | Beschreibung | Link |
|---|---|---|
| BEHAVIOR-QwenDual-taskall | Gemeinsam auf allen 50 Aufgaben trainiert | HF |
| BEHAVIOR-QwenDual-task1 | Einzelaufgaben-Training | HF |
| BEHAVIOR-QwenDual-task6-40k | 6-Aufgaben gemeinsames Training | HF |
| BEHAVIOR-rgp-seg | Segmentierungs-Beobachtungsexperiment | HF |
Datensaetze
Abschnitt betitelt „Datensaetze“Trainingsdatensaetze
Abschnitt betitelt „Trainingsdatensaetze“| Datensatz | Beschreibung | Link |
|---|---|---|
| LLaVA-OneVision-COCO | Bild-Text-Datensatz fuer VLM-Co-Training (ShareGPT4V-COCO-Teilmenge) | HF |
| RoboTwin-Clean | RoboTwin 2.0 bereinigte Demonstrationen (50 pro Aufgabe) | HF |
| RoboTwin-Randomized | RoboTwin 2.0 randomisierte Demonstrationen (500 pro Aufgabe) | HF |
| RoboTwin-Randomized-targz | Wie oben, im tar.gz-Paketformat (fuer Massen-Download) | HF |
BEHAVIOR-Daten
Abschnitt betitelt „BEHAVIOR-Daten“| Datensatz | Beschreibung | Link |
|---|---|---|
| BEHAVIOR-1K | BEHAVIOR-1K-Benchmark-Simulationskonfigurationen | HF |
| BEHAVIOR-1K-datasets | BEHAVIOR-1K-Trainingsdatensaetze | HF |
| BEHAVIOR-1K-datasets-assets | BEHAVIOR-1K-Szenen- und Objekt-Assets | HF |
| BEHAVIOR-1K-VISUALIZATION-DEMO | BEHAVIOR-1K-Visualisierungsdemos | HF |
| behavior-1k-task0 | Einzelaufgaben-Trainingsdatenbeispiel | HF |
Wie Sie einen Checkpoint verwenden
Abschnitt betitelt „Wie Sie einen Checkpoint verwenden“Laden Sie einen Checkpoint herunter und starten Sie den Policy-Server:
# Herunterladen (erfordert huggingface_hub)huggingface-cli download StarVLA/Qwen3VL-GR00T-Bridge-RT-1 --local-dir ./results/Checkpoints/Qwen3VL-GR00T-Bridge-RT-1
# Policy-Server startenpython deployment/model_server/server_policy.py \ # steps_XXXXX ist die Trainingsschrittzahl — ersetzen Sie dies durch den tatsaechlichen Dateinamen aus Ihrem Download # z. B. steps_50000_pytorch_model.pt; fuehren Sie `ls` aus, um den genauen Dateinamen zu sehen --ckpt_path ./results/Checkpoints/Qwen3VL-GR00T-Bridge-RT-1/checkpoints/steps_XXXXX_pytorch_model.pt \ --port 5694 \ --use_bf16Folgen Sie dann dem Evaluationsleitfaden fuer den Benchmark, den Sie testen moechten (z. B. SimplerEnv, LIBERO, RoboCasa, RoboTwin, BEHAVIOR).