📌 简介
- mini-embed-vision 是一个轻量级的中文多模态嵌入模型,旨在为个人开发者提供可复现、低成本、高性能的图文联合嵌入方案。
- 本项目在 冻结文本编码器 的前提下,基于对比学习(Contrastive Learning)框架,通过可训练的投影层对齐图像与文本的嵌入空间,在显著降低训练成本的同时保持良好的跨模态对齐能力。
- 基座模型:
- 文本编码器:
BAAI/bge-base-zh-v1.5 - 视觉编码器:
openai/clip-vit-base-patch32
- 文本编码器:
- 适用场景:中文图文检索、多模态搜索、内容理解、边缘设备部署等资源受限环境。
📦 项目结构
mini-embed-vision/
├── Model.py # 多模态模型结构定义 ├── train.py # 训练脚本 ├── data.py # 数据加载与预处理(基于 COCO128,支持扩展) ├── example/ # 使用示例 │ ├── test_embed_image.py # 图像嵌入示例 │ └── test_image_text_ser.py # 图文检索示例 ├── requirements.txt # 依赖库 └── README.md # 本文档
✅ 兼容
transformers、peft、datasets等主流 Hugging Face 生态库。
🚀 快速开始
0. 环境搭建
0.1 克隆代码
git clone https://github.com/SyJarvis/mini-embed-vision.git
cd mini-embed-vision
0.2 安装依赖
pip install -r requirements.txt
1. 使用预训练模型
1.1 下载模型(推荐使用国内镜像加速)
💡 由于 Hugging Face 官方服务器访问受限,建议通过 HF-Mirror 镜像下载。
方法一:使用 huggingface-cli + 镜像
export HF_ENDPOINT=https://hf-mirror.com
huggingface-cli download --resume-download syjarvis/mini-embed-vision-v1.0 --local-dir ./mini-embed-vision-v1.0
方法二:使用modelscope
modelscope download --model shangye/mini-embed-vision-v1.0
1.2 运行示例
图像嵌入提取
python example/test_embed_image.py图文检索示例
python example/test_image_text_ser.py
2. 推理示例(代码)
图像嵌入提取
from PIL import Image
from transformers import AutoTokenizer, AutoImageProcessor, AutoModel
import requests
import torch
model_dir = "./mini-embed-vision-v1.0"
tokenizer = AutoTokenizer.from_pretrained(model_dir)
image_processor = AutoImageProcessor.from_pretrained(model_dir)
model = AutoModel.from_pretrained(model_dir, trust_remote_code=True).to("cuda")
url = 'http://images.cocodataset.org/val2017/000000039769.jpg'
image = Image.open(requests.get(url, stream=True).raw).convert("RGB")
inputs = image_processor(image, return_tensors="pt").to("cuda")
with torch.no_grad():
emb = model.encode_image(inputs["pixel_values"]) # shape: [1, 768]
print("✅ 图像嵌入形状:", emb.shape)
print("✅ 嵌入范数(应为 1.0):", torch.norm(emb, dim=-1).item())
多模态图文检索
from PIL import Image
from transformers import AutoTokenizer, AutoImageProcessor, AutoModel
import requests
import torch
model_dir = "./mini-embed-vision-v1.0"
model = AutoModel.from_pretrained(model_dir, trust_remote_code=True).to("cuda")
tokenizer = AutoTokenizer.from_pretrained(model_dir)
image_processor = AutoImageProcessor.from_pretrained(model_dir)
# 图像
url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw).convert("RGB")
image_inputs = image_processor(image, return_tensors="pt").to("cuda")
# 文本查询
queries = [
"两只猫坐在沙发上",
"一只狗在草地上奔跑",
"可爱的猫咪",
"海洋中的鲸鱼",
"室内宠物"
]
# 编码图像
with torch.no_grad():
image_embedding = model.get_image_features(**image_inputs) # [1, 768]
# 编码文本
text_embeddings = []
for text in queries:
encoded = tokenizer(text, return_tensors="pt", padding=True, truncation=True, max_length=512).to("cuda")
with torch.no_grad():
emb = model.get_text_features(**encoded) # [1, 768]
text_embeddings.append(emb)
text_embeddings = torch.cat(text_embeddings, dim=0) # [N, 768]
# 计算相似度(已 L2 归一化,点积 = 余弦相似度)
similarities = torch.matmul(image_embedding, text_embeddings.T).squeeze(0)
# 排序输出
print("\n🔍 图文检索结果(按相关性排序):")
results = sorted(zip(queries, similarities.tolist()), key=lambda x: x[1], reverse=True)
for i, (query, score) in enumerate(results, 1):
print(f"{i}. {query} → 相似度: {score:.4f}")
3. 从头训练模型
🛠️ 训练脚本位于 train.py, 现提供了COCO128 数据集。欢迎提交 PR 扩展更多数据集或训练策略。
训练命令
python train.py
📝 更新日志
2025-10-20
* 实现了基础的多模态嵌入模型 * 支持图像/文本嵌入提取与多模态检索 * 发布V1.0预训练模型到Hugging Face Hub📌 Acknowledge
如果觉得
miniembed-vision对您有所帮助,可以在 GitHub 上加一个⭐
因水平有限难免疏漏,欢迎在Issues交流指正或提交PR改进项目
📜 许可证
本项目采用 Apache License 2.0 开源协议。
🙏 致谢
- Downloads last month
- 10
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support
