| --- |
| license: mit |
| --- |
| # 模型名称 |
| PROTECT: Parameter-Efficient Tuning for Few-Shot Robust Chinese Text Correction |
|
|
| # 模型开发者 |
| Xuan Feng (Ph.D. candidate, Jinan University) |
|
|
| Tianlong Gu (Professor, Jinan University) |
|
|
| Liang Chang (Professor, Guilin University of Electronic Technology) |
|
|
| Xiaoli Liu (Associate Professor, Jinan University) |
|
|
| # 模型概述 |
| PROTECT 是一种先进的中文文本校正模型,专为在少量样本情况下的鲁棒性文本校正而设计。该模型能够自动检测并纠正句子中的错误,包括但不限于拼音错误、视觉错误和故意的文字攻击。 |
|
|
| # 模型功能 |
| 检测和纠正非规范文本和网络用语 |
|
|
| 抵御对抗性攻击,增强内容审核的鲁棒性 |
|
|
| 支持多种文本错误的校正,包括完美拼音、缩写拼音、字符分割、视觉和语音错误 |
|
|
| # 模型性能 |
| 在全数据和低资源设置下均展现出最佳性能 |
|
|
| 通过仅调整0.2%的参数实现零样本和少样本学习 |
|
|
| # 模型架构 |
| 对抗感知的多特征表示方法 |
|
|
| 上下文特定自适应前缀(Context-specific Adaptive Prefix, CAP) |
|
|
| 语义一致低秩适应模块(Semantic-consistent Low-rank Adaptation, SLA) |
|
|
| # 使用场景 |
| 社交媒体内容审核 |
|
|
| 中文文本校正和拼写检查 |
|
|
| 对抗性文本攻击的防御 |