3D资产检索机制分析
概述
本项目使用 OpenShape 框架来根据文本描述检索3D资产。OpenShape是一个基于CLIP的多模态3D模型检索系统。
核心技术栈
1. OpenShape Embeddings
- 模型: CLIP-ViT-bigG-14-laion2B-39B-b160k
- 数据源: Objaverse数据集 (大规模3D模型数据库)
- 预计算embeddings: 存储在HuggingFace
objaverse_meta.json- 元数据 (模型名称、标签、面数等)objaverse.pt- 预计算的特征向量
2. 文本编码器
- 使用 CLIP 的文本编码器将物体描述转换为embedding向量
- 支持详细的多属性描述 (材质、风格、质量等)
检索流程
核心文件: tools/retrive_3d.py
┌─────────────────────┐
│ 物体文本描述 │
│ (Object Description)│
└──────────┬──────────┘
│
▼
┌─────────────────────┐
│ CLIP文本编码器 │
│ (Text Encoder) │
└──────────┬──────────┘
│
▼
┌─────────────────────┐
│ 文本Embedding │
│ (512维向量) │
└──────────┬──────────┘
│
▼
┌─────────────────────┐
│ 余弦相似度计算 │
│ 与所有3D模型比较 │
└──────────┬──────────┘
│
▼
┌─────────────────────┐
│ 相似度排序+过滤 │
│ (Top-K + 阈值) │
└──────────┬──────────┘
│
▼
┌─────────────────────┐
│ 返回最佳匹配模型 │
│ (Objaverse UID) │
└─────────────────────┘
详细代码分析
1. 加载预计算的Embeddings
# 从HuggingFace下载元数据
meta = json.load(
open(hf_hub_download(
"OpenShape/openshape-objaverse-embeddings",
"objaverse_meta.json",
token=True,
repo_type='dataset',
local_dir="OpenShape-Embeddings"
))
)
# 加载预计算的特征向量 (所有Objaverse模型的embeddings)
deser = torch.load(
hf_hub_download(
"OpenShape/openshape-objaverse-embeddings",
"objaverse.pt",
token=True,
repo_type='dataset',
local_dir="OpenShape-Embeddings"
),
map_location='cpu'
)
us = deser['us'] # 模型UIDs列表
feats = deser['feats'] # 对应的特征向量
数据结构:
meta: 字典,包含每个3D模型的元数据u: 唯一标识符 (UID)name: 模型名称tags: 标签列表cats: 类别faces: 面数anims: 动画数量desc: 描述glb: GLB文件路径- 等等...
2. 文本编码
# 加载CLIP模型
clip_model, clip_prep = transformers.CLIPModel.from_pretrained(
"laion/CLIP-ViT-bigG-14-laion2B-39B-b160k",
low_cpu_mem_usage=True,
torch_dtype=half,
offload_state_dict=True
)
# 文本预处理
text = preprocess(obj["description"]) # 清理数字、下划线
# 编码文本
tn = clip_prep(
text=[text],
return_tensors='pt',
truncation=True,
max_length=76
).to(device)
# 获取文本特征
enc = clip_model.get_text_features(**tn).float().cpu()
3. 相似度检索 (核心算法)
def retrieve(embedding, top, sim_th=0.0, filter_fn=None):
"""
Args:
embedding: 文本的embedding向量
top: 返回top-K个结果
sim_th: 相似度阈值 (0.0-1.0)
filter_fn: 过滤函数 (面数、动画数限制等)
Returns:
匹配的3D模型列表
"""
sims = []
# 归一化查询向量
embedding = F.normalize(embedding.detach().cpu(), dim=-1).squeeze()
# 分块计算相似度 (避免显存溢出)
for chunk in torch.split(feats, 10240):
sims.append(embedding @ F.normalize(chunk.float(), dim=-1).T)
# 合并并排序
sims = torch.cat(sims)
sims, idx = torch.sort(sims, descending=True)
# 应用相似度阈值
sim_mask = sims > sim_th
sims = sims[sim_mask]
idx = idx[sim_mask]
# 收集结果
results = []
for i, sim in zip(idx, sims):
if us[i] in meta:
# 应用过滤器
if filter_fn is None or filter_fn(meta[us[i]]):
results.append(dict(meta[us[i]], sim=sim))
if len(results) >= top:
break
return results
算法解析:
- 向量归一化: L2归一化确保余弦相似度计算
- 批量计算: 分块处理避免内存问题
- 余弦相似度:
embedding @ chunk.T计算点积 - Top-K选择: 排序后取前K个
- 阈值过滤: 只保留相似度 > sim_th 的结果
- 元数据过滤: 根据面数、动画数等过滤
4. 过滤器
def get_filter_fn():
"""创建过滤函数,限制模型的面数和动画数"""
face_min = 0
face_max = 34985808 # 允许的最大面数
anim_min = 0
anim_max = 563 # 允许的最大动画数
anim_n = not (anim_min > 0 or anim_max < 563)
face_n = not (face_min > 0 or face_max < 34985808)
filter_fn = lambda x: (
(anim_n or anim_min <= x['anims'] <= anim_max)
and (face_n or face_min <= x['faces'] <= face_max)
)
return filter_fn
过滤条件:
- 面数范围 (避免过于复杂或简单的模型)
- 动画数量 (某些场景不需要动画模型)
在端到端流程中的集成
当前状态 (end_to_end_pipeline.py)
def retrieve_3d_assets(object_list: Dict, asset_dir: str, max_scan: int = 1000) -> Dict:
"""
为每个物体检索对应的3D asset
"""
# TODO: 这里应该集成OpenShape的检索逻辑
# 现在简化处理: 随机从asset_dir中选择assets
# ... 简化版实现 (随机选择)
现状:
- ⚠️ 端到端流程中尚未集成OpenShape检索
- 当前使用随机选择策略从本地asset目录选择模型
tools/retrive_3d.py是独立的检索脚本
完整检索示例
输入
{
"description": "A modern wooden dining chair with cushioned seat and backrest,
mid-century style, high quality"
}
处理步骤
文本预处理
text = "A modern wooden dining chair with cushioned seat and backrest, mid-century style, high quality"CLIP编码
text → [512维向量]相似度计算
与Objaverse数据库中所有模型的embeddings比较 计算余弦相似度排序与过滤
- 相似度降序排列 - 应用阈值 (sim_th=0.1) - 应用面数/动画数过滤返回结果
{ "u": "abc123def456...", "name": "Mid-Century Dining Chair", "sim": 0.87, "faces": 5280, "tags": ["furniture", "chair", "dining", "modern"], "glb": "glbs/001-234/abc123def456.glb" }
关键参数
| 参数 | 默认值 | 说明 |
|---|---|---|
top |
1 | 返回Top-K个结果 |
sim_th |
0.1 | 相似度阈值 (0.0-1.0) |
face_min |
0 | 最小面数 |
face_max |
34985808 | 最大面数 |
anim_min |
0 | 最小动画数 |
anim_max |
563 | 最大动画数 |
max_length |
76 | 文本最大token数 |
优缺点分析
✅ 优点
- 语义理解: CLIP能理解复杂的文本描述
- 预计算: embeddings预先计算,检索速度快
- 大规模: 支持Objaverse海量3D模型库
- 灵活过滤: 可根据面数、动画等属性过滤
- 多属性: 支持材质、风格、质量等多维度描述
⚠️ 局限性
- 未集成: 端到端流程中尚未集成OpenShape
- 计算资源: 需要GPU和较大内存
- HuggingFace依赖: 需要token下载embeddings
- CLIP局限: 对于细微差异可能不够精确
- 单一匹配: 每次只返回最佳匹配,可能不是最优选择
改进建议
1. 集成到端到端流程
def retrieve_3d_assets(object_list: Dict, asset_dir: str) -> Dict:
"""集成OpenShape检索"""
# 加载CLIP模型和Objaverse embeddings
clip_model, clip_prep = load_openclip()
assets = {}
for obj_name, obj_info in object_list.items():
description = obj_info.get("description", obj_name)
# CLIP编码
enc = encode_text(clip_model, clip_prep, description)
# 检索
results = retrieve(enc, top=5, sim_th=0.1)
# 选择最佳匹配
best_match = results[0]
assets[obj_name] = best_match
return assets
2. 多样性选择
- 返回Top-5而非Top-1
- 根据场景风格一致性进行二次筛选
- 避免重复选择相同模型
3. 缓存机制
# 缓存常见物体的检索结果
retrieval_cache = {}
def retrieve_with_cache(description):
if description in retrieval_cache:
return retrieval_cache[description]
result = retrieve(...)
retrieval_cache[description] = result
return result
4. 本地索引
- 为本地asset目录建立索引
- 预计算本地assets的embeddings
- 避免每次都从HuggingFace下载
相关文件
- 核心检索:
tools/retrive_3d.py - 端到端流程:
end_to_end_pipeline.py - 物体描述生成:
tools/object_list_gen*.py - Embeddings:
OpenShape-Embeddings/objaverse.pt - 元数据:
OpenShape-Embeddings/objaverse_meta.json
参考资源
- OpenShape论文: https://arxiv.org/abs/2305.10764
- OpenShape GitHub: https://github.com/Colin97/OpenShape
- Objaverse: https://objaverse.allenai.org/
- CLIP模型: https://huggingface.co/laion/CLIP-ViT-bigG-14-laion2B-39B-b160k
总结
本项目的3D资产检索采用了基于CLIP的语义检索方法:
- 使用大规模预训练的CLIP模型理解文本描述
- 通过余弦相似度在Objaverse embeddings中检索最相似的3D模型
- 应用多种过滤器确保模型质量
- 支持复杂的多属性描述 (材质、风格、质量等)
当前在 tools/retrive_3d.py 中实现完整,但尚未集成到端到端流程中。端到端流程目前使用简化的随机选择策略。