RWKV-ASR / README_CN.md
fasdfsa's picture
init
32beb88

使用预训练的 RWKV 语言模型进行语音识别

本仓库是一个探索性实验,旨在使预训练的 RWKV 语言模型能够接受语音输入。通常,在文本数据上训练的 LLM 不直接适用于语音识别任务,有很多解决方案(例如适配器 + 预训练音频编码器或神经音频编解码器)可以弥合文本和语音之间的差距。我们遵循了 SLAM_ASR 的思路,使用 RWKV 语言模型作为 LLM,而不是直接编写提示模板,我们直接微调了 RWKV 模型的初始状态。在 Librispeech 960h Clean 测试集上,我们使用 3B RWKV 模型实现了 4.6% 的 WER(Other 测试集为 6.9%)。

本仓库的代码基于 RWKV-PEFT 开发。当前的语音编码器和适配器实现基于 SLAM_ASR

路线图

我们希望探索计算效率高、性能优越的方式将基于文本的 RWKV 扩展到多模态模型。在音频和语音领域,我们正在尝试以下任务:

  • 单语言 ASR
  • 多语言 ASR
  • 语音翻译
  • 语音输入问答(如 GPT-4o)
  • 其他音频任务
  • 多轮对话

环境

以下命令将创建一个新的 conda 环境并安装所需的包:

conda create -n rwkv python=3.10
conda activate rwkv
pip install -r requirements.txt

训练

  1. 从以下链接之一下载 RWKV-6-World 模型文件。我们在实验中使用了 3B 模型,即 RWKV-x060-World-3B-v2.1-20240417-ctx4096.pth。
  1. 打开 demo/demo-state-tuning.sh。将 OP=train 设置为训练,并将 load_model=path/to/your/model/ 设置为您的模型路径。根据以下表修改 n_layern_embd
模型 n_layer n_embd
1.6B 24 2048
3B 32 2560
7B 32 4096
14B 61 4096

其他训练参数:

参数 描述
micro_bsz 每个设备的批量大小
epoch_steps 每个 epoch 的步骤数。请根据(数据集大小 / 实际批量大小)进行修改
device 用于训练的 GPU 数量

默认设置将在 4 个设备上训练 3B rwkv 模型,每个设备的批量大小为 4(实际批量大小 = 16)。

  1. 该脚本将覆盖 output/ 中的 .pth 文件。确保在训练前将所需的 .pth 模型文件保存到其他目录下!
  2. 运行 sh demo/demo-state-tuning.sh 以开始训练过程。

训练过程如下:

  • 它首先加载RWKV模型和从huggingface下载的语音编码模型。将随机初始化适配器和 RWKV 模型的初始状态。
  • 模型的(符号)简化公式如下:
RWKV( [InitialState], [Adapter](SpeechEncoder(audio))) -> "The weather is good.

[ ]包围的部分会被训练,其他参数是锁定的。

还有一些代码可以启用整个模型的其他 PEFT 训练。目前,我们还没有完全适配于语音模态训练,我们仍在积极开发中。

评估

参考训练的步骤,但设定demo/demo-state-tuning.sh里的OP=eval。保存在output/中的模型将被用于评估,脚本会计算Librispeech 960h Clean和Other测试集的WER。

音频文件预测

打开demo/demo-predict.sh并修改file_path为输入音频的路径。运行sh demo/demo-predict.sh来从output/加载训练权重并预测音频内容。

预训练权重

下载预训练权重,请访问以下链接:

语音识别:https://huggingface.co/JerryAGENDD/RWKV-ASR/tree/main/ASR

语音翻译:https://huggingface.co/JerryAGENDD/RWKV-ASR/tree/main/ST

语音问答:https://huggingface.co/JerryAGENDD/RWKV-ASR/tree/main/SpeechQA

预训练权重包含适配器和RWKV初始状态的必要参数。这些权重是使用WavLM Large作为语音编码器和RWKV-3B作为语言模型(脚本默认配置)进行训练的。请将权重放置在output/目录中,以便脚本加载它们。

RWKV 语音对话

这是一个与 RWKV 进行实时语音对话的脚本:

https://github.com/AGENDD/RWKV-SpeechChat

您可以使用训练后的权重与 RWKV 进行实时语音交互。