--- language: - zh license: apache-2.0 ---
![logo](./images/logb.png) # mini-embed-vision 轻量级中文图文统一嵌入模型(Multimodal Embedding Model for Chinese) 中文 | [English](./README_en.md)
## 📌 简介 * **mini-embed-vision** 是一个轻量级的中文多模态嵌入模型,旨在为个人开发者提供可复现、低成本、高性能的图文联合嵌入方案。 * 本项目在 **冻结文本编码器** 的前提下,基于对比学习(Contrastive Learning)框架,通过可训练的投影层对齐图像与文本的嵌入空间,在显著降低训练成本的同时保持良好的跨模态对齐能力。 * **基座模型**: - 文本编码器:`BAAI/bge-base-zh-v1.5` - 视觉编码器:`openai/clip-vit-base-patch32` * **适用场景**:中文图文检索、多模态搜索、内容理解、边缘设备部署等资源受限环境。 --- ## 📦 项目结构 * mini-embed-vision/ ├── Model.py # 多模态模型结构定义 ├── train.py # 训练脚本 ├── data.py # 数据加载与预处理(基于 COCO128,支持扩展) ├── example/ # 使用示例 │ ├── test_embed_image.py # 图像嵌入示例 │ └── test_image_text_ser.py # 图文检索示例 ├── requirements.txt # 依赖库 └── README.md # 本文档 > ✅ 兼容 `transformers`、`peft`、`datasets` 等主流 Hugging Face 生态库。 --- ## 🚀 快速开始 ### 0. 环境搭建 #### 0.1 克隆代码 ```bash git clone https://github.com/SyJarvis/mini-embed-vision.git cd mini-embed-vision ``` #### 0.2 安装依赖 ``` pip install -r requirements.txt ``` ### 1. 使用预训练模型 #### 1.1 下载模型(推荐使用国内镜像加速) > 💡 由于 Hugging Face 官方服务器访问受限,建议通过 HF-Mirror 镜像下载。 方法一:使用 huggingface-cli + 镜像 ```bash export HF_ENDPOINT=https://hf-mirror.com huggingface-cli download --resume-download syjarvis/mini-embed-vision-v1.0 --local-dir ./mini-embed-vision-v1.0 ``` 方法二:使用modelscope ```bash modelscope download --model shangye/mini-embed-vision-v1.0 ``` #### 1.2 运行示例 * 图像嵌入提取 ```bash python example/test_embed_image.py ``` * 图文检索示例 ``` python example/test_image_text_ser.py ``` ### 2. 推理示例(代码) #### 图像嵌入提取 ```python from PIL import Image from transformers import AutoTokenizer, AutoImageProcessor, AutoModel import requests import torch model_dir = "./mini-embed-vision-v1.0" tokenizer = AutoTokenizer.from_pretrained(model_dir) image_processor = AutoImageProcessor.from_pretrained(model_dir) model = AutoModel.from_pretrained(model_dir, trust_remote_code=True).to("cuda") url = 'http://images.cocodataset.org/val2017/000000039769.jpg' image = Image.open(requests.get(url, stream=True).raw).convert("RGB") inputs = image_processor(image, return_tensors="pt").to("cuda") with torch.no_grad(): emb = model.encode_image(inputs["pixel_values"]) # shape: [1, 768] print("✅ 图像嵌入形状:", emb.shape) print("✅ 嵌入范数(应为 1.0):", torch.norm(emb, dim=-1).item()) ``` #### 多模态图文检索 ```python from PIL import Image from transformers import AutoTokenizer, AutoImageProcessor, AutoModel import requests import torch model_dir = "./mini-embed-vision-v1.0" model = AutoModel.from_pretrained(model_dir, trust_remote_code=True).to("cuda") tokenizer = AutoTokenizer.from_pretrained(model_dir) image_processor = AutoImageProcessor.from_pretrained(model_dir) # 图像 url = "http://images.cocodataset.org/val2017/000000039769.jpg" image = Image.open(requests.get(url, stream=True).raw).convert("RGB") image_inputs = image_processor(image, return_tensors="pt").to("cuda") # 文本查询 queries = [ "两只猫坐在沙发上", "一只狗在草地上奔跑", "可爱的猫咪", "海洋中的鲸鱼", "室内宠物" ] # 编码图像 with torch.no_grad(): image_embedding = model.get_image_features(**image_inputs) # [1, 768] # 编码文本 text_embeddings = [] for text in queries: encoded = tokenizer(text, return_tensors="pt", padding=True, truncation=True, max_length=512).to("cuda") with torch.no_grad(): emb = model.get_text_features(**encoded) # [1, 768] text_embeddings.append(emb) text_embeddings = torch.cat(text_embeddings, dim=0) # [N, 768] # 计算相似度(已 L2 归一化,点积 = 余弦相似度) similarities = torch.matmul(image_embedding, text_embeddings.T).squeeze(0) # 排序输出 print("\n🔍 图文检索结果(按相关性排序):") results = sorted(zip(queries, similarities.tolist()), key=lambda x: x[1], reverse=True) for i, (query, score) in enumerate(results, 1): print(f"{i}. {query} → 相似度: {score:.4f}") ``` ### 3. 从头训练模型 🛠️ 训练脚本位于 train.py, 现提供了COCO128 数据集。欢迎提交 PR 扩展更多数据集或训练策略。 训练命令 ```bash python train.py ``` ## **📝 更新日志**
2025-10-20 * 实现了基础的多模态嵌入模型 * 支持图像/文本嵌入提取与多模态检索 * 发布V1.0预训练模型到Hugging Face Hub
## 📌 Acknowledge > [!NOTE] > 如果觉得`miniembed-vision`对您有所帮助,可以在 GitHub 上加一个⭐
> 因水平有限难免疏漏,欢迎在Issues交流指正或提交PR改进项目
## **📜 许可证** 本项目采用 [Apache License 2.0](LICENSE) 开源协议。 ## 🙏 致谢 * [BAAI/bge-base-zh-v1.5](https://huggingface.co/BAAI/bge-base-zh-v1.5) * [OpenAI CLIP](https://github.com/openai/CLIP) * [contrastors](https://github.com/nomic-ai/contrastors)