xianglarry commited on
Commit
a9ebb91
·
1 Parent(s): 9c6eae7

add pi05 model.

Browse files
README.md ADDED
@@ -0,0 +1,59 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # pi05_gguf 文件来源说明
2
+
3
+ 本目录用于存放 `openvla.cpp/tools/pi05` 推理所需/相关 GGUF 文件。
4
+
5
+ ## 文件与来源
6
+
7
+ | 文件 | 来源模型/用途 | 典型生成方式 |
8
+ |---|---|---|
9
+ | `siglip.gguf` | OpenPI 中 PaliGemma 视觉塔(SigLIP)权重 | `openvla.cpp/tools/pi05/export_pi05_gguf.py` 导出 |
10
+ | `paligemma.gguf` | OpenPI 中 `paligemma_with_expert.paligemma.language_model`(pi05 主流程使用) | `openvla.cpp/tools/pi05/export_pi05_gguf.py` 导出 |
11
+ | `action_expert.gguf` | OpenPI 中 `paligemma_with_expert.gemma_expert.model`(含 AdaRMS 相关参数) | `openvla.cpp/tools/pi05/export_pi05_gguf.py` 导出 |
12
+ | `action_proj.gguf` | 动作输入/输出投影层与时间相关投影参数 | `openvla.cpp/tools/pi05/export_pi05_gguf.py` 导出 |
13
+ | `norm_stats.json` | 归一化统计信息(动作/状态后处理) | 来自 OpenPI checkpoint 的 `assets/.../norm_stats.json` |
14
+ | `paligemma_tokenizer.model` | PaliGemma SentencePiece tokenizer | 通常来自 `~/.cache/openpi/big_vision/paligemma_tokenizer.model` |
15
+ | `paligemma_f16.gguf` | 单独导出的 Gemma language model(F16 版本) | HF 导出后,用 `convert_hf_to_gguf.py --outtype f16` |
16
+ | `paligemma_bf16.gguf` | 单独导出的 Gemma language model(BF16 版本) | HF 导出后,用 `convert_hf_to_gguf.py --outtype bf16` |
17
+ | `paligemma_q8_0.gguf` | `paligemma_f16.gguf` 或 `paligemma_bf16.gguf` 的量化版本 | `llama-quantize ... q8_0` |
18
+ | `paligemma_tokenizer.lock` | tokenizer 相关锁文件 | 运行时产生,可忽略 |
19
+
20
+ ## 主要导出脚本
21
+
22
+ 1. Pi0.5 拆分导出(`siglip.gguf` / `paligemma.gguf` / `action_expert.gguf` / `action_proj.gguf`)
23
+
24
+ ```bash
25
+ cd /home/ubuntu/data_1/chenxing/openvla.cpp/tools/pi05
26
+ python export_pi05_gguf.py \
27
+ --checkpoint_dir /home/ubuntu/data_1/chenxing/openpi/pi05_droid_pytorch/model \
28
+ --output_dir /home/ubuntu/data_1/chenxing/pi05_gguf \
29
+ --config_name pi05_droid
30
+ ```
31
+
32
+ 2. 单独导出 Gemma language model(HF -> GGUF)
33
+
34
+ ```bash
35
+ # 先导出 HF 目录(见export_hf_language_model.py)
36
+ python /home/ubuntu/data_1/chenxing/openpi/export_hf_language_model.py
37
+
38
+ # 再转 GGUF(主干 BF16 + norm 保留 F32”的混合精度导出)
39
+ python /home/ubuntu/data_1/chenxing/openvla.cpp/convert_hf_to_gguf.py \
40
+ /home/ubuntu/data_1/chenxing/openpi/pi05_paligemma_lang_hf \
41
+ --outfile /home/ubuntu/data_1/chenxing/pi05_gguf/paligemma_bf16.gguf \
42
+ --outtype bf16
43
+ ```
44
+
45
+ 3. 量化为 Q8_0
46
+
47
+ ```bash
48
+ cd /home/ubuntu/data_1/chenxing/openvla.cpp/build/bin
49
+ ./llama-quantize \
50
+ /home/ubuntu/data_1/chenxing/pi05_gguf/paligemma_bf16.gguf \
51
+ /home/ubuntu/data_1/chenxing/pi05_gguf/paligemma_q8_0.gguf \
52
+ q8_0
53
+ ```
54
+
55
+ ## 使用建议
56
+
57
+ 1. `tools/pi05` 主流程优先使用同批次导出的四件套:`siglip.gguf`、`paligemma.gguf`、`action_expert.gguf`、`action_proj.gguf`。
58
+ 2. `paligemma_f16/bf16/q8_0.gguf` 主要用于语言干路对比或单模型转换验证,不应与不匹配批次的 expert/proj 混用。
59
+ 3. 若出现结果偏移,先确认:模型文件是否同批次、tokenizer 是否一致、norm 语义是否重复处理。
action_expert.gguf ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:867ff01b73c4d4bacf44f85a72bcd2badc9ee93575ced0d462ae7fa2471dfa5f
3
+ size 1382528640
action_proj.gguf ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:1ae93620c52946ee4aeac98f372dadf71b5557edc94dbdb6653bb039c41673da
3
+ size 4332160
norm_stats.json ADDED
@@ -0,0 +1,280 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "norm_stats": {
3
+ "actions": {
4
+ "mean": [
5
+ -0.00472901866709525,
6
+ 0.011388235604800786,
7
+ 0.001825141694746182,
8
+ 0.028471763133568993,
9
+ 0.001342906416782047,
10
+ -0.002978336488361622,
11
+ 0.0028646739072654254,
12
+ 0.45140399925478786,
13
+ 0.0,
14
+ 0.0,
15
+ 0.0,
16
+ 0.0,
17
+ 0.0,
18
+ 0.0,
19
+ 0.0,
20
+ 0.0,
21
+ 0.0,
22
+ 0.0,
23
+ 0.0,
24
+ 0.0,
25
+ 0.0,
26
+ 0.0,
27
+ 0.0,
28
+ 0.0,
29
+ 0.0,
30
+ 0.0,
31
+ 0.0,
32
+ 0.0,
33
+ 0.0,
34
+ 0.0,
35
+ 0.0,
36
+ 0.0
37
+ ],
38
+ "std": [
39
+ 0.1555912402862041,
40
+ 0.3074590841735031,
41
+ 0.1514089017296873,
42
+ 0.30116801315764397,
43
+ 0.22751769153326873,
44
+ 0.24581617376611345,
45
+ 0.26948180190273524,
46
+ 0.4413864921810166,
47
+ 0.0,
48
+ 0.0,
49
+ 0.0,
50
+ 0.0,
51
+ 0.0,
52
+ 0.0,
53
+ 0.0,
54
+ 0.0,
55
+ 0.0,
56
+ 0.0,
57
+ 0.0,
58
+ 0.0,
59
+ 0.0,
60
+ 0.0,
61
+ 0.0,
62
+ 0.0,
63
+ 0.0,
64
+ 0.0,
65
+ 0.0,
66
+ 0.0,
67
+ 0.0,
68
+ 0.0,
69
+ 0.0,
70
+ 0.0
71
+ ],
72
+ "q01": [
73
+ -0.45799999999999996,
74
+ -0.8076,
75
+ -0.44719999999999993,
76
+ -0.9268,
77
+ -0.6456,
78
+ -0.6459999999999999,
79
+ -0.7616,
80
+ 0.0,
81
+ 0.0,
82
+ 0.0,
83
+ 0.0,
84
+ 0.0,
85
+ 0.0,
86
+ 0.0,
87
+ 0.0,
88
+ 0.0,
89
+ 0.0,
90
+ 0.0,
91
+ 0.0,
92
+ 0.0,
93
+ 0.0,
94
+ 0.0,
95
+ 0.0,
96
+ 0.0,
97
+ 0.0,
98
+ 0.0,
99
+ 0.0,
100
+ 0.0,
101
+ 0.0,
102
+ 0.0,
103
+ 0.0,
104
+ 0.0
105
+ ],
106
+ "q99": [
107
+ 0.4476,
108
+ 0.7652000000000001,
109
+ 0.4480000000000002,
110
+ 0.7944,
111
+ 0.6484000000000001,
112
+ 0.6628000000000001,
113
+ 0.7344000000000002,
114
+ 0.9998,
115
+ 0.0,
116
+ 0.0,
117
+ 0.0,
118
+ 0.0,
119
+ 0.0,
120
+ 0.0,
121
+ 0.0,
122
+ 0.0,
123
+ 0.0,
124
+ 0.0,
125
+ 0.0,
126
+ 0.0,
127
+ 0.0,
128
+ 0.0,
129
+ 0.0,
130
+ 0.0,
131
+ 0.0,
132
+ 0.0,
133
+ 0.0,
134
+ 0.0,
135
+ 0.0,
136
+ 0.0,
137
+ 0.0,
138
+ 0.0
139
+ ]
140
+ },
141
+ "state": {
142
+ "mean": [
143
+ 0.016237762316468146,
144
+ 0.26715409834621,
145
+ -0.016710053356134087,
146
+ -2.0255712993077326,
147
+ -0.03266582860490208,
148
+ 2.344549184149644,
149
+ 0.08269685385513066,
150
+ 0.3997888614549533,
151
+ 0.0,
152
+ 0.0,
153
+ 0.0,
154
+ 0.0,
155
+ 0.0,
156
+ 0.0,
157
+ 0.0,
158
+ 0.0,
159
+ 0.0,
160
+ 0.0,
161
+ 0.0,
162
+ 0.0,
163
+ 0.0,
164
+ 0.0,
165
+ 0.0,
166
+ 0.0,
167
+ 0.0,
168
+ 0.0,
169
+ 0.0,
170
+ 0.0,
171
+ 0.0,
172
+ 0.0,
173
+ 0.0,
174
+ 0.0
175
+ ],
176
+ "std": [
177
+ 0.30769924638771073,
178
+ 0.48216030004631877,
179
+ 0.26944263961875825,
180
+ 0.48189821046318276,
181
+ 0.5374187843900121,
182
+ 0.45384659499775365,
183
+ 0.7474676080830999,
184
+ 0.40705741517596306,
185
+ 0.0,
186
+ 0.0,
187
+ 0.0,
188
+ 0.0,
189
+ 0.0,
190
+ 0.0,
191
+ 0.0,
192
+ 0.0,
193
+ 0.0,
194
+ 0.0,
195
+ 0.0,
196
+ 0.0,
197
+ 0.0,
198
+ 0.0,
199
+ 0.0,
200
+ 0.0,
201
+ 0.0,
202
+ 0.0,
203
+ 0.0,
204
+ 0.0,
205
+ 0.0,
206
+ 0.0,
207
+ 0.0,
208
+ 0.0
209
+ ],
210
+ "q01": [
211
+ -0.8279732212066653,
212
+ -0.8398311847686768,
213
+ -0.8425482082366944,
214
+ -2.773015278291702,
215
+ -1.8426181347846986,
216
+ 1.1716566389799117,
217
+ -2.047264838027954,
218
+ 0.0,
219
+ 0.0,
220
+ 0.0,
221
+ 0.0,
222
+ 0.0,
223
+ 0.0,
224
+ 0.0,
225
+ 0.0,
226
+ 0.0,
227
+ 0.0,
228
+ 0.0,
229
+ 0.0,
230
+ 0.0,
231
+ 0.0,
232
+ 0.0,
233
+ 0.0,
234
+ 0.0,
235
+ 0.0,
236
+ 0.0,
237
+ 0.0,
238
+ 0.0,
239
+ 0.0,
240
+ 0.0,
241
+ 0.0,
242
+ 0.0
243
+ ],
244
+ "q99": [
245
+ 0.8996522880554196,
246
+ 1.385467470359802,
247
+ 0.6920277433395388,
248
+ -0.4542043057203293,
249
+ 1.732314240932464,
250
+ 3.4672964780330657,
251
+ 2.1984972072601314,
252
+ 0.991,
253
+ 0.0,
254
+ 0.0,
255
+ 0.0,
256
+ 0.0,
257
+ 0.0,
258
+ 0.0,
259
+ 0.0,
260
+ 0.0,
261
+ 0.0,
262
+ 0.0,
263
+ 0.0,
264
+ 0.0,
265
+ 0.0,
266
+ 0.0,
267
+ 0.0,
268
+ 0.0,
269
+ 0.0,
270
+ 0.0,
271
+ 0.0,
272
+ 0.0,
273
+ 0.0,
274
+ 0.0,
275
+ 0.0,
276
+ 0.0
277
+ ]
278
+ }
279
+ }
280
+ }
paligemma.gguf ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6f004a27ac9557783d95530aff53361e527a347c65d800079a8e9f7025da7d76
3
+ size 5017073536
paligemma_bf16.gguf ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d74815658129c5bdd074160610cca8bc62ea4a02affe415dddebe826b03d6e7a
3
+ size 5023282368
paligemma_f16.gguf ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:b31ff1a851d18c1697ec932e912b526e31f6280b94bd93d7f680997d783027fa
3
+ size 5023282368
paligemma_q8_0.gguf ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:953b3ba1213631159c045e0666751d5c778e988ce054c0eb745a535b305d7c97
3
+ size 2671604928
paligemma_tokenizer.lock ADDED
File without changes
paligemma_tokenizer.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:8986bb4f423f07f8c7f70d0dbe3526fb2316056c17bae71b1ea975e77a168fc6
3
+ size 4264023
siglip.gguf ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6649204a6906839809074de082dd5aa15f4786fab80626411cd0ed006654c406
3
+ size 829633728