ZoneMaestro_code / eval /LayoutVLM /3D_ASSET_RETRIEVAL_ANALYSIS.md
kkkkiiii's picture
Add files using upload-large-folder tool
231562a verified

3D资产检索机制分析

概述

本项目使用 OpenShape 框架来根据文本描述检索3D资产。OpenShape是一个基于CLIP的多模态3D模型检索系统。


核心技术栈

1. OpenShape Embeddings

  • 模型: CLIP-ViT-bigG-14-laion2B-39B-b160k
  • 数据源: Objaverse数据集 (大规模3D模型数据库)
  • 预计算embeddings: 存储在HuggingFace
    • objaverse_meta.json - 元数据 (模型名称、标签、面数等)
    • objaverse.pt - 预计算的特征向量

2. 文本编码器

  • 使用 CLIP 的文本编码器将物体描述转换为embedding向量
  • 支持详细的多属性描述 (材质、风格、质量等)

检索流程

核心文件: tools/retrive_3d.py

┌─────────────────────┐
│  物体文本描述       │
│  (Object Description)│
└──────────┬──────────┘
           │
           ▼
┌─────────────────────┐
│  CLIP文本编码器     │
│  (Text Encoder)      │
└──────────┬──────────┘
           │
           ▼
┌─────────────────────┐
│  文本Embedding      │
│  (512维向量)        │
└──────────┬──────────┘
           │
           ▼
┌─────────────────────┐
│  余弦相似度计算     │
│  与所有3D模型比较   │
└──────────┬──────────┘
           │
           ▼
┌─────────────────────┐
│  相似度排序+过滤    │
│  (Top-K + 阈值)     │
└──────────┬──────────┘
           │
           ▼
┌─────────────────────┐
│  返回最佳匹配模型   │
│  (Objaverse UID)     │
└─────────────────────┘

详细代码分析

1. 加载预计算的Embeddings

# 从HuggingFace下载元数据
meta = json.load(
    open(hf_hub_download(
        "OpenShape/openshape-objaverse-embeddings", 
        "objaverse_meta.json", 
        token=True, 
        repo_type='dataset', 
        local_dir="OpenShape-Embeddings"
    ))
)

# 加载预计算的特征向量 (所有Objaverse模型的embeddings)
deser = torch.load(
    hf_hub_download(
        "OpenShape/openshape-objaverse-embeddings", 
        "objaverse.pt", 
        token=True, 
        repo_type='dataset', 
        local_dir="OpenShape-Embeddings"
    ), 
    map_location='cpu'
)

us = deser['us']        # 模型UIDs列表
feats = deser['feats']  # 对应的特征向量

数据结构:

  • meta: 字典,包含每个3D模型的元数据
    • u: 唯一标识符 (UID)
    • name: 模型名称
    • tags: 标签列表
    • cats: 类别
    • faces: 面数
    • anims: 动画数量
    • desc: 描述
    • glb: GLB文件路径
    • 等等...

2. 文本编码

# 加载CLIP模型
clip_model, clip_prep = transformers.CLIPModel.from_pretrained(
    "laion/CLIP-ViT-bigG-14-laion2B-39B-b160k",
    low_cpu_mem_usage=True, 
    torch_dtype=half,
    offload_state_dict=True
)

# 文本预处理
text = preprocess(obj["description"])  # 清理数字、下划线

# 编码文本
tn = clip_prep(
    text=[text], 
    return_tensors='pt', 
    truncation=True, 
    max_length=76
).to(device)

# 获取文本特征
enc = clip_model.get_text_features(**tn).float().cpu()

3. 相似度检索 (核心算法)

def retrieve(embedding, top, sim_th=0.0, filter_fn=None):
    """
    Args:
        embedding: 文本的embedding向量
        top: 返回top-K个结果
        sim_th: 相似度阈值 (0.0-1.0)
        filter_fn: 过滤函数 (面数、动画数限制等)
    
    Returns:
        匹配的3D模型列表
    """
    sims = []
    
    # 归一化查询向量
    embedding = F.normalize(embedding.detach().cpu(), dim=-1).squeeze()
    
    # 分块计算相似度 (避免显存溢出)
    for chunk in torch.split(feats, 10240):
        sims.append(embedding @ F.normalize(chunk.float(), dim=-1).T)
    
    # 合并并排序
    sims = torch.cat(sims)
    sims, idx = torch.sort(sims, descending=True)
    
    # 应用相似度阈值
    sim_mask = sims > sim_th
    sims = sims[sim_mask]
    idx = idx[sim_mask]
    
    # 收集结果
    results = []
    for i, sim in zip(idx, sims):
        if us[i] in meta:
            # 应用过滤器
            if filter_fn is None or filter_fn(meta[us[i]]):
                results.append(dict(meta[us[i]], sim=sim))
                if len(results) >= top:
                    break
    
    return results

算法解析:

  1. 向量归一化: L2归一化确保余弦相似度计算
  2. 批量计算: 分块处理避免内存问题
  3. 余弦相似度: embedding @ chunk.T 计算点积
  4. Top-K选择: 排序后取前K个
  5. 阈值过滤: 只保留相似度 > sim_th 的结果
  6. 元数据过滤: 根据面数、动画数等过滤

4. 过滤器

def get_filter_fn():
    """创建过滤函数,限制模型的面数和动画数"""
    face_min = 0
    face_max = 34985808  # 允许的最大面数
    anim_min = 0
    anim_max = 563        # 允许的最大动画数
    
    anim_n = not (anim_min > 0 or anim_max < 563)
    face_n = not (face_min > 0 or face_max < 34985808)
    
    filter_fn = lambda x: (
        (anim_n or anim_min <= x['anims'] <= anim_max)
        and (face_n or face_min <= x['faces'] <= face_max)
    )
    return filter_fn

过滤条件:

  • 面数范围 (避免过于复杂或简单的模型)
  • 动画数量 (某些场景不需要动画模型)

在端到端流程中的集成

当前状态 (end_to_end_pipeline.py)

def retrieve_3d_assets(object_list: Dict, asset_dir: str, max_scan: int = 1000) -> Dict:
    """
    为每个物体检索对应的3D asset
    """
    # TODO: 这里应该集成OpenShape的检索逻辑
    # 现在简化处理: 随机从asset_dir中选择assets
    
    # ... 简化版实现 (随机选择)

现状:

  • ⚠️ 端到端流程中尚未集成OpenShape检索
  • 当前使用随机选择策略从本地asset目录选择模型
  • tools/retrive_3d.py 是独立的检索脚本

完整检索示例

输入

{
    "description": "A modern wooden dining chair with cushioned seat and backrest, 
                    mid-century style, high quality"
}

处理步骤

  1. 文本预处理

    text = "A modern wooden dining chair with cushioned seat and backrest, 
            mid-century style, high quality"
    
  2. CLIP编码

    text → [512维向量]
    
  3. 相似度计算

    与Objaverse数据库中所有模型的embeddings比较
    计算余弦相似度
    
  4. 排序与过滤

    - 相似度降序排列
    - 应用阈值 (sim_th=0.1)
    - 应用面数/动画数过滤
    
  5. 返回结果

    {
        "u": "abc123def456...",
        "name": "Mid-Century Dining Chair",
        "sim": 0.87,
        "faces": 5280,
        "tags": ["furniture", "chair", "dining", "modern"],
        "glb": "glbs/001-234/abc123def456.glb"
    }
    

关键参数

参数 默认值 说明
top 1 返回Top-K个结果
sim_th 0.1 相似度阈值 (0.0-1.0)
face_min 0 最小面数
face_max 34985808 最大面数
anim_min 0 最小动画数
anim_max 563 最大动画数
max_length 76 文本最大token数

优缺点分析

✅ 优点

  1. 语义理解: CLIP能理解复杂的文本描述
  2. 预计算: embeddings预先计算,检索速度快
  3. 大规模: 支持Objaverse海量3D模型库
  4. 灵活过滤: 可根据面数、动画等属性过滤
  5. 多属性: 支持材质、风格、质量等多维度描述

⚠️ 局限性

  1. 未集成: 端到端流程中尚未集成OpenShape
  2. 计算资源: 需要GPU和较大内存
  3. HuggingFace依赖: 需要token下载embeddings
  4. CLIP局限: 对于细微差异可能不够精确
  5. 单一匹配: 每次只返回最佳匹配,可能不是最优选择

改进建议

1. 集成到端到端流程

def retrieve_3d_assets(object_list: Dict, asset_dir: str) -> Dict:
    """集成OpenShape检索"""
    
    # 加载CLIP模型和Objaverse embeddings
    clip_model, clip_prep = load_openclip()
    
    assets = {}
    for obj_name, obj_info in object_list.items():
        description = obj_info.get("description", obj_name)
        
        # CLIP编码
        enc = encode_text(clip_model, clip_prep, description)
        
        # 检索
        results = retrieve(enc, top=5, sim_th=0.1)
        
        # 选择最佳匹配
        best_match = results[0]
        assets[obj_name] = best_match
    
    return assets

2. 多样性选择

  • 返回Top-5而非Top-1
  • 根据场景风格一致性进行二次筛选
  • 避免重复选择相同模型

3. 缓存机制

# 缓存常见物体的检索结果
retrieval_cache = {}

def retrieve_with_cache(description):
    if description in retrieval_cache:
        return retrieval_cache[description]
    
    result = retrieve(...)
    retrieval_cache[description] = result
    return result

4. 本地索引

  • 为本地asset目录建立索引
  • 预计算本地assets的embeddings
  • 避免每次都从HuggingFace下载

相关文件

  • 核心检索: tools/retrive_3d.py
  • 端到端流程: end_to_end_pipeline.py
  • 物体描述生成: tools/object_list_gen*.py
  • Embeddings: OpenShape-Embeddings/objaverse.pt
  • 元数据: OpenShape-Embeddings/objaverse_meta.json

参考资源


总结

本项目的3D资产检索采用了基于CLIP的语义检索方法:

  1. 使用大规模预训练的CLIP模型理解文本描述
  2. 通过余弦相似度在Objaverse embeddings中检索最相似的3D模型
  3. 应用多种过滤器确保模型质量
  4. 支持复杂的多属性描述 (材质、风格、质量等)

当前在 tools/retrive_3d.py 中实现完整,但尚未集成到端到端流程中。端到端流程目前使用简化的随机选择策略。