rubert-tiny-sts-v2 / README.md
sergeyzh's picture
Upload 10 files
ca4178c verified
metadata
language:
  - ru
  - en
pipeline_tag: sentence-similarity
tags:
  - russian
  - pretraining
  - embeddings
  - tiny
  - feature-extraction
  - sentence-similarity
  - sentence-transformers
  - transformers
  - mteb
datasets:
  - IlyaGusev/gazeta
  - zloelias/lenta-ru
  - HuggingFaceFW/fineweb-2
  - HuggingFaceFW/fineweb
license: mit
base_model: sergeyzh/rubert-tiny-turbo

Быстрая модель BERT для задач симметричного перефразирования (STS, поиск парафраз, дедупликация) и логического вывода (NLI). Получена дистилляцией эмбеддингов русских и английских текстов Qwen/Qwen3-Embedding-4B в rubert-tiny-turbo.

Модель может использоваться в качестве базовой для дообучения под пользовательские задачи классификации и кластеризации.

Основные характеристики модели:

  • размер ембеддинга - 312,
  • длина контекста - 512,
  • слоёв - 3,
  • префиксы - не требуются.

Использование

from sentence_transformers import SentenceTransformer

model = SentenceTransformer('sergeyzh/rubert-tiny-sts-v2')

sentences = ["привет мир", "hello world", "здравствуй вселенная"]
embeddings = model.encode(sentences)
print(model.similarity(embeddings, embeddings))

Метрики

Оценки модели на задачах для русского языка:

Model Name RuSTS Benchmark STS RU ParaPhraser STS STS22,v2 TERRa Classification Average
Qwen3-Embedding-4B 0,888 0,766 0,701 0,666 0,755
multilingual-e5-large-instruct 0,840 0,754 0,706 0,639 0,735
Qwen3-Embedding-0.6B 0,842 0,721 0,662 0,607 0,708
rubert-tiny-sts-v2 0,830 0,736 0,646 0,616 0,707
bge-m3 0,797 0,749 0,663 0,607 0,704
rubert-tiny-turbo 0,787 0,721 0,646 0,563 0,679
multilingual-e5-base 0,796 0,702 0,607 0,550 0,664

Оценки модели на задачах для английского языка:

Model Name STS12 STS13 STS14 STS15 STS17 STS22,v2 STS Benchmark Average
Qwen3-Embedding-4B 0,866 0,944 0,909 0,938 0,918 0,730 0,937 0,892
Qwen3-Embedding-0.6B 0,830 0,918 0,871 0,914 0,855 0,718 0,911 0,860
multilingual-e5-large-instruct 0,825 0,881 0,848 0,910 0,860 0,690 0,884 0,842
bge-m3 0,787 0,796 0,790 0,878 0,796 0,700 0,849 0,800
multilingual-e5-base 0,767 0,780 0,766 0,882 0,783 0,646 0,856 0,783
rubert-tiny-sts-v2 0,761 0,836 0,804 0,856 0,821 0,547 0,833 0,780
rubert-tiny-turbo 0,662 0,603 0,661 0,774 0,272 0,334 0,690 0,571