--- language: - ru - en pipeline_tag: sentence-similarity tags: - russian - pretraining - embeddings - tiny - feature-extraction - sentence-similarity - sentence-transformers - transformers - mteb datasets: - IlyaGusev/gazeta - zloelias/lenta-ru - HuggingFaceFW/fineweb-2 - HuggingFaceFW/fineweb license: mit base_model: sergeyzh/rubert-tiny-turbo --- Быстрая модель BERT для задач симметричного перефразирования (STS, поиск парафраз, дедупликация) и логического вывода (NLI). Получена дистилляцией эмбеддингов русских и английских текстов [Qwen/Qwen3-Embedding-4B](https://huggingface.co/Qwen/Qwen3-Embedding-4B) в [rubert-tiny-turbo](https://huggingface.co/sergeyzh/rubert-tiny-turbo). Модель может использоваться в качестве базовой для дообучения под пользовательские задачи классификации и кластеризации. Основные характеристики модели: - размер ембеддинга - 312, - длина контекста - 512, - слоёв - 3, - префиксы - не требуются. ## Использование ```Python from sentence_transformers import SentenceTransformer model = SentenceTransformer('sergeyzh/rubert-tiny-sts-v2') sentences = ["привет мир", "hello world", "здравствуй вселенная"] embeddings = model.encode(sentences) print(model.similarity(embeddings, embeddings)) ``` ## Метрики Оценки модели на задачах для русского языка: | Model Name | RuSTS Benchmark STS | RU ParaPhraser STS | STS22,v2 | TERRa Classification | Average | | :--- | :---: | :---: | :---: | :---: | :---: | | Qwen3-Embedding-4B | 0,888 | 0,766 | 0,701 | 0,666 | 0,755 | | multilingual-e5-large-instruct | 0,840 | 0,754 | 0,706 | 0,639 | 0,735 | | Qwen3-Embedding-0.6B | 0,842 | 0,721 | 0,662 | 0,607 | 0,708 | | **rubert-tiny-sts-v2** | 0,830 | 0,736 | 0,646 | 0,616 | 0,707 | | bge-m3 | 0,797 | 0,749 | 0,663 | 0,607 | 0,704 | | rubert-tiny-turbo | 0,787 | 0,721 | 0,646 | 0,563 | 0,679 | | multilingual-e5-base | 0,796 | 0,702 | 0,607 | 0,550 | 0,664 | Оценки модели на задачах для английского языка: | Model Name | STS12 | STS13 | STS14 | STS15 | STS17 | STS22,v2 | STS Benchmark | Average | | :--- | :---: | :---: | :---: | :---: | :---: | :---: | :---: | :---: | | Qwen3-Embedding-4B | 0,866 | 0,944 | 0,909 | 0,938 | 0,918 | 0,730 | 0,937 | 0,892 | | Qwen3-Embedding-0.6B | 0,830 | 0,918 | 0,871 | 0,914 | 0,855 | 0,718 | 0,911 | 0,860 | | multilingual-e5-large-instruct | 0,825 | 0,881 | 0,848 | 0,910 | 0,860 | 0,690 | 0,884 | 0,842 | | bge-m3 | 0,787 | 0,796 | 0,790 | 0,878 | 0,796 | 0,700 | 0,849 | 0,800 | | multilingual-e5-base | 0,767 | 0,780 | 0,766 | 0,882 | 0,783 | 0,646 | 0,856 | 0,783 | | **rubert-tiny-sts-v2** | 0,761 | 0,836 | 0,804 | 0,856 | 0,821 | 0,547 | 0,833 | 0,780 | | rubert-tiny-turbo | 0,662 | 0,603 | 0,661 | 0,774 | 0,272 | 0,334 | 0,690 | 0,571 |