--- title: General Deep Learning emoji: 🏃 colorFrom: yellow colorTo: gray sdk: gradio sdk_version: 6.12.0 python_version: 3.12 app_file: app.py pinned: false license: mit short_description: General Deep Learning is a practical deep learning experimen --- # 通用深度学习(General Deep Learning) ## 项目简介 **通用深度学习(General Deep Learning)** 是一个面向实践的深度学习实验平台,致力于打造"训练-部署-体验"一体化的完整工作流。 ### ✨ 为什么适合你? **🎯 我的愿景** - 构建一个**从零开始、透明可学、工程模块化**的深度学习平台。 **🎓学习友好** - ✅ **纯手工从零构建** - Transformer、RNN 都是一行行代码手撸 - ✅ **代码即教程** - 没有黑盒封装,每个组件清晰可见 - ✅ **完整的训练闭环** - 从数据处理到部署,全流程透明 - **🔧 技术特性** - ✅ **覆盖主流模型** - Transformer、RNN,未来将扩展至 CNN、Diffusion 等 - ✅ **模块化架构** - 可插拔设计,新模型/新数据集快速接入 - ✅ **生产级部署** - 一键部署到 Hugging Face,支持断点续训、TensorBoard 监控 ### 📅 关于这个项目 > *历时俩月,忙里偷闲。* 这不是一个追求最新模型的项目,而是一个**"代码即教程"**的个人实验场。 **已完成功能**: - Wiki GPT - 基于中文维基的手写 Transformer - 诗歌生成器 - GPT 和 RNN 双版本对比 **未来规划**: 4 月有事不再投入,5 月开始计划每月新增一个模型,探索更多架构(CNN、Diffusion...) - 🔮 逐步扩展至 CV、多模态等领域 - 🔮 保持"从零手撸"的风格,让每个新模型都成为学习素材 **欢迎一起折腾** —— 反馈问题、贡献代码,或单纯聊聊技术! ### 🤗 在线体验 [![Hugging Face Space](https://img.shields.io/badge/🤗-Hugging%20Face%20Space-blue)](https://huggingface.co/spaces/yetrun/general-deep-learning) 🚀 **在线体验**:[点击访问 Hugging Face Space](https://huggingface.co/spaces/yetrun/general-deep-learning) 本项目已部署到 Hugging Face Space,你可以在线体验以下功能: - **Wiki GPT 文本生成**:基于 Transformer 架构的中文文本生成,训练数据来自中文维基语料库 - **诗歌生成器(GPT)**:基于 Transformer 的中文诗歌生成,支持五言、七言诗等 - **诗歌生成器(RNN)**:基于 RNN 架构的中文诗歌生成,支持五言、七言诗等 ## 部署说明 本项目已配置为 Hugging Face Space 兼容格式,如需更新部署: ```bash # 1. 在 Hugging Face 创建新的 Space(选择 Gradio SDK) # 2. 绑定 Space 远程仓库 git remote add huggingface https://huggingface.co/spaces/YOUR_USERNAME/YOUR_SPACE_NAME # 3. 确保依赖同步(生成 requirements.txt) python3 generate_requirements.py # 4. 提交并推送 git push huggingface master ``` ## 本地开发 ### Conda 环境使用 使用方法: ```bash # 创建环境 conda env create -f # 激活环境 conda activate general-dl # 更新 environment.yml conda env update -f --prune ``` 上述 `` 是环境配置文件的路径,需要替换成实际的文件名: - 如果你是本地开发,使用 `environment.yml`(Mac Intel 64 环境,`ENV=test`) - 如果你是在远程服务器上运行,使用 `environments-linux.yml`(Linux 服务器环境,`ENV=production`) > **插曲:** > > 环境配置出现了问题,强制重新安装 tensorflow-text 才修复。 > > ```bash > pip uninstall tensorflow-text -y > pip install --no-cache-dir --force-reinstall tensorflow-text==2.20.0 > ``` ### 开发工具配置 #### TensorBoard 说明 训练时,调用 `tensorboard --logdir=` 来启动 TensorBoard,默认访问地址是 http://localhost:6006/. `` 通常是 `local/tasks//tensorboard`. > 冷知识:tensorboard 中的代数与我们常规认为的代数不一致,第一代的计数是 0. #### JetBrains 远程开发配置 配置本地代码映射: 1. 菜单栏:Tools → Deployment → Configuration 2. 配置目录映射:切换到Mappings标签页,Deployment path 设置远程目录路径 3. 配置排除目录,一般可排除的本地目录包括:`data/dev`, `local`, `test`. 手工同步: - 右键文件/目录 → Deployment → Upload to... ## 数据集说明 ### WIKI 数据集 *(本项目中 `wiki_gpt` 任务使用了中文维基语料库进行训练)* 下载维基百科的数据。 ```bash wget https://dumps.wikimedia.org/other/mediawiki_content_current/zhwiki/2026-01-01/xml/bzip2/zhwiki-2026-01-01-p1p5254490.xml.bz2 wget https://dumps.wikimedia.org/other/mediawiki_content_current/zhwiki/2026-01-01/xml/bzip2/zhwiki-2026-01-01-p5254491p9382552.xml.bz2 ``` 维基百科的数据分成两个文件,可使用 cat 命令合并成一个文件: ```bash cat zhwiki-2026-01-01-p1p5254490.xml.bz2 zhwiki-2026-01-01-p5254491p9382552.xml.bz2 > zhwiki-2026-01-01.xml.bz2 ```