SentenceTransformer
This is a sentence-transformers model trained. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Maximum Sequence Length: 8192 tokens
- Output Dimensionality: 768 dimensions
- Similarity Function: Cosine Similarity
Model Sources
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 8192, 'do_lower_case': False, 'architecture': 'ModernBertModel'})
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
model = SentenceTransformer("cuadron11/jaunbert_parl-ft")
sentences = [
'Zer jarrera du Damorenea Basterrecheak kontzertu ekonomikoaren inguruan?',
'[TOPIC: Honako mozio hauek batera eztabaidatu eta behin betiko ebazpena hartzea: ]\n[DAMBORENEA BASTERRECHEA, (PV-ETP)]:\nharen arteko ezberdintasuna, eta nolako muturra daukaten hango haietako batzuek, egiten zuten proposamenean, ez baitzen kontzertuarena ezta gutxiagorik ere. Begira, nik uste dut kontzertu ekonomikoa oso ondo ibiliko dela, lehenik eta behin Euzko Alderdi Jeltzaleak alde batera uzten badu gai horren bidegabeko jabetzea, eta berea balitz bezala saltzeari uko egiten badio, zeren eta horrek Espainiako beste lekuetan sortzen duena kontzertuaren aurkako jarrera baita, noski. Ez dakit jabetzen zareten, baina, (Date: 29.10.2015)',
'akordioaren ondoren, zeinak Kontzertu Ekonomikoaren aldaketa jasotzen baitu.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
similarities = model.similarity(embeddings, embeddings)
print(similarities)
Evaluation
Metrics
Triplet
| Metric |
Value |
| cosine_accuracy |
0.324 |
Training Details
Training Dataset
Unnamed Dataset
- Size: 5,997 training samples
- Columns:
anchor and positive
- Approximate statistics based on the first 1000 samples:
|
anchor |
positive |
| type |
string |
string |
| details |
- min: 9 tokens
- mean: 21.44 tokens
- max: 54 tokens
|
- min: 130 tokens
- mean: 186.69 tokens
- max: 261 tokens
|
- Samples:
| anchor |
positive |
Zein da Eusko Jaurlaritzaren jarrera Fagor Etxekotresnak taldeko konfort-alorraren bideragarritasun-planaren inguruan? |
[TOPIC: Galdera, Oskar Matute García de Jalón EH Bildu taldeko legebiltzarkideak Ekonomiaren Garapen eta Lehiakortasuneko sailburuari egina, Fagor Etxekotresnak taldeko konfort-alorraren bideragarritasun-planaren inguruan] [MATUTE GARCÍA DE JALÓN, (EH Bildu)]: egin dutenik beren lana–, edo argi dago nahiago izan duzuela ikusle hutsen pare jardun, industria-ehunaren galera dakarren (oraingo honetan bai) tragedia honetan. Zuek hazkundea aipatu, eta Edesa itxi. Zuek aitzindaritzaz hitz egin, eta beste batzuek agindu. Izan ere, barra-barra mintzo zarete kudeaketa onari buruz, baina bitartekari soil gisa diharduzue egiaz, arbitro modura, eta zuen partidetan, gainera, alde berberak irabazten du beti: enpresaburuek, alegia. La (Date: 21.02.2014) |
Zein dira Euskal Legebiltzar Talde Popularrak enplegua sustatzeko tokiko ekintzetarako laguntzak emateko proposatu dituen ildoak? |
[TOPIC: Euskal Legebiltzar Talde Popularrak egindako legez besteko proposamena, enplegua sustatzeko tokiko ekintzeta- rako laguntzak emateari buruz. Eztabaida eta behin betiko ebazpena] [ZULAIKA PORTILLO, (EH Bildu)]: (batez ere soldatari dagokionez) batez ere bigarren ildoak jasotzen dituen egoeretan aplikatzen direla, alegia, enpresek egindako kontratazioetan; gehien ezagutzen ditugunak, behintzat, ildo horretan gertatu dira. Horregatik atera dugu hitzarmenen gaia. Udaletan horrelako zerbait gertatu bada, gure zuzenketak esaten duen bezala, argitu nahi dut guk eskatzen dugula erreferentziazko hitzarmena ezarri dadila. Hitzarmen hori sektorekoa edo baldintzak hobetzen dituen enpresa-hitzarmen edo itunen bat izan daiteke. Hitzez hitz irakurriko dizut: "Hala eta (Date: 07.05.2015) |
Zer desberdintasun egongo lirateke oposizioak kritikatutako lege-proiektu bat eta Jaurlaritzak aurkeztutako lege-proiektu bat alderatuz gero? |
[TOPIC: Mozioa, Gorka Maneiro Labayen Mistoa-UPyD taldeko legebiltzarkideak aurkeztua, Administrazio publikoari buruzko beste lege bat planteatzeko egin beharreko urratsei buruz. Eztabaida eta behin betiko ebazpena] [SÉMPER PASCUAL, (PV-ETP)]: Baina ikusi zein desberdina izango litzatekeen oposizioak eta legebiltzartaldeek kritikatutako lege-proiektu bat izan beharrean, Jaurlaritzak aurkeztutako lege-proiektu bat izan bagenu –hori parlamentarismoaren logikaren barnean sartzen da: Jaurlaritzak lege-proiektu bat bidaltzen dio Ganbera honi, alderdi politikoek horri buruzko iritzia ematen dute, haien jarrera azaltzen dute–, orain, lantalde batean egon gintezke, gaur mahai gainean jartzen ari garen guztiari buruz eztabaidatzen. Honezkero honi guztiari buruz eztabaidatzen arituko ginateke, (Date: 18.06.2015) |
- Loss:
MultipleNegativesRankingLoss with these parameters:{
"scale": 20.0,
"similarity_fct": "cos_sim",
"gather_across_devices": false,
"directions": [
"query_to_doc"
],
"partition_mode": "joint",
"hardness_mode": null,
"hardness_strength": 0.0
}
Evaluation Dataset
Unnamed Dataset
- Size: 6,000 evaluation samples
- Columns:
anchor, positive, and negative
- Approximate statistics based on the first 1000 samples:
|
anchor |
positive |
negative |
| type |
string |
string |
string |
| details |
- min: 8 tokens
- mean: 21.0 tokens
- max: 61 tokens
|
- min: 142 tokens
- mean: 186.39 tokens
- max: 260 tokens
|
- min: 2 tokens
- mean: 94.72 tokens
- max: 249 tokens
|
- Samples:
| anchor |
positive |
negative |
Zein proiektu aipatu dira Urdaibaiko Biosfera Erreserbaren garapen sozioekonomikoa bultzatzeko? |
[TOPIC: Mozioa, José Ramón Becerra Carollo Elkarrekin Podemos taldeko legebiltzarkideak aurkeztua, Urdaibaiko Biosfera Erreserbako garapen sozioekonomikoari buruz. Eztabaida eta behin betiko ebazpena] [ARRUABARRENA AZPITARTE, (EA-NV)]: Bermeoko portua, errepide-konexioa, eginkizun dagoen beste proiektu bat da hori, eta horretarako seguruenera kanpo-finantzaketa beharko da, dirutza ikaragarriak direlako eta zaila delako datozen lau urteetan egitea. Gernikako merkatua eraberritzea, baxurako flota modernizatzea. Neurri txiki handi asko dira, banan-banan egiten joan beharko direnak, lan asko eginez eta, jakina, oraindik aurkitu ez dugun formulazio bat aurkitzeko asmoz, etorkizunerako balioko duena, ziur gaude, Euskadi osorako eta beharbada munduko beste lekuetarako (Date: 06.06.2019) |
Urdaibaiko Biosfera Erreserbari buruz hitz egingo dugu. Dakizunez, Euskadiko lege baten bidez babestu den naturgune bakarra da Urdaibaiko Erreserba. |
Zergatik dio Isasi Balanzategik Soziologia Fakultatean galdera hori erabiltzen dela galdera makurraren eredu garbi gisa? |
[TOPIC: Galdera, Xabier Isasi Balanzategi EH Bildu taldeko legebiltzarkideak lehendakariari egina, Lehendakaritzako Prospekzio Soziologikoen Kabineteak egiten dituen inkestei buruz] [ISASI BALANZATEGI, (EH Bildu)]: Eskerrik asko, lehendakari andrea. Egia da orain dela 20 urte Jaurlaritzak ikerketa soziologikoan herritarrei galdetu ziela aipatutakoa. Egia da, beste aldetik, galdera hori berori Soziologia Fakultatean galdera makurraren eredu garbi gisa erabili daitekeela eta pertsonen manipulaziorako tresna, alegia. Mundo mailan eta horrelako gobernuen aldetik batik bat horrelako galderak erabiltzea, horrek ez du kentzen metodologiaren ikuspegitik zuzenak eta egokiak direnik, lehendakari jauna. 20 urte beranduago galdera bera erabiltzea begiratu gabe eta (Date: 05.02.2016) |
[TOPIC: EH Bildu talde parlamentarioak egindako legez besteko proposamena, Jarduera Ekonomikoetarako Lurzorua Sortzeko eta Saltoki Handiak Antolatzeko Lurraldearen Arloko Planari buruz. Eztabaida eta behin betiko ebazpena] [URIBE ETXEBARRIA APALATEGI, (EA-NV)]: duten zeozerez zer edo zer leporatzeko badut; ez dut tribuna honetatik egingo, baina aukera baldin badugu hitz egiteko, nik esango diet zein den nire ikuspegia beraiek izan duten jarreraren inguruan. Eta ez ezazu zalantzarik izan Gobernu honek eta departamentu honek elkarrizketaren aldeko jarrera politikoa duela, zeren eta Corcuera andereak aipatu dituen laguntza-programak direla eta, hori ez da beraiei, sektoreari, bizkarra emanda hartutako erabaki bat izan, baizik eta esplikatu zaie, esan zaie (Date: 14.06.2018) |
Zein da Gazte talentua itzulera-programaren helburua? |
[TOPIC: Galdera, Josu Estarrona Elizondo EH Bildu taldeko legebiltzarkideak Enpleguko eta Gizarte Politiketako sailburuari egina, gazteen prekarietateari aurre egiteko neurri berrien inguruan] [ESTARRONA ELIZONDO, (EH Bildu)]: diruz lagundu besterik egiten ez duen programa horrekin. Horregatik eskatzen dugu beti horrelako kontuetan 1.200 euroko soldata irizpidetzat hartzeko. Gazte talentua itzulera-programak bere horretan jarraitzen du, eta horri buruz ia hobeto hitzik ez egitea; izan ere, emaitzei erreparatuz gero, existituko ez balitz bezala da, eta gazteak nazkatzen ari dira; aspalditik ari gara hori esaten, aspalditik ari gara ohartarazten, gazteek kaleak bete zituzten klimaaldaketaren aurka, demokraziaren eta oinarrizko eskubide zibil eta (Date: 29.11.2019) |
zitzaion, gazte euskaldunak itzultzeko programa hedatzeko protokoloari buruzkoa. |
- Loss:
MultipleNegativesRankingLoss with these parameters:{
"scale": 20.0,
"similarity_fct": "cos_sim",
"gather_across_devices": false,
"directions": [
"query_to_doc"
],
"partition_mode": "joint",
"hardness_mode": null,
"hardness_strength": 0.0
}
Training Hyperparameters
Non-Default Hyperparameters
num_train_epochs: 5
learning_rate: 2e-05
warmup_steps: 0.1
eval_strategy: epoch
batch_sampler: no_duplicates
All Hyperparameters
Click to expand
per_device_train_batch_size: 8
num_train_epochs: 5
max_steps: -1
learning_rate: 2e-05
lr_scheduler_type: linear
lr_scheduler_kwargs: None
warmup_steps: 0.1
optim: adamw_torch_fused
optim_args: None
weight_decay: 0.0
adam_beta1: 0.9
adam_beta2: 0.999
adam_epsilon: 1e-08
optim_target_modules: None
gradient_accumulation_steps: 1
average_tokens_across_devices: True
max_grad_norm: 1.0
label_smoothing_factor: 0.0
bf16: False
fp16: False
bf16_full_eval: False
fp16_full_eval: False
tf32: None
gradient_checkpointing: False
gradient_checkpointing_kwargs: None
torch_compile: False
torch_compile_backend: None
torch_compile_mode: None
use_liger_kernel: False
liger_kernel_config: None
use_cache: False
neftune_noise_alpha: None
torch_empty_cache_steps: None
auto_find_batch_size: False
log_on_each_node: True
logging_nan_inf_filter: True
include_num_input_tokens_seen: no
log_level: passive
log_level_replica: warning
disable_tqdm: False
project: huggingface
trackio_space_id: trackio
eval_strategy: epoch
per_device_eval_batch_size: 8
prediction_loss_only: True
eval_on_start: False
eval_do_concat_batches: True
eval_use_gather_object: False
eval_accumulation_steps: None
include_for_metrics: []
batch_eval_metrics: False
save_only_model: False
save_on_each_node: False
enable_jit_checkpoint: False
push_to_hub: False
hub_private_repo: None
hub_model_id: None
hub_strategy: every_save
hub_always_push: False
hub_revision: None
load_best_model_at_end: False
ignore_data_skip: False
restore_callback_states_from_checkpoint: False
full_determinism: False
seed: 42
data_seed: None
use_cpu: False
accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
parallelism_config: None
dataloader_drop_last: False
dataloader_num_workers: 0
dataloader_pin_memory: True
dataloader_persistent_workers: False
dataloader_prefetch_factor: None
remove_unused_columns: True
label_names: None
train_sampling_strategy: random
length_column_name: length
ddp_find_unused_parameters: None
ddp_bucket_cap_mb: None
ddp_broadcast_buffers: False
ddp_backend: None
ddp_timeout: 1800
fsdp: []
fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
deepspeed: None
debug: []
skip_memory_metrics: True
do_predict: False
resume_from_checkpoint: None
warmup_ratio: None
local_rank: -1
prompts: None
batch_sampler: no_duplicates
multi_dataset_batch_sampler: proportional
router_mapping: {}
learning_rate_mapping: {}
Training Logs
| Epoch |
Step |
Training Loss |
Validation Loss |
jaunbert-parl-ft_cosine_accuracy |
| 0.1333 |
100 |
2.3036 |
- |
- |
| 0.2667 |
200 |
2.2767 |
- |
- |
| 0.4 |
300 |
2.2167 |
- |
- |
| 0.5333 |
400 |
2.1345 |
- |
- |
| 0.6667 |
500 |
2.0694 |
- |
- |
| 0.8 |
600 |
2.0275 |
- |
- |
| 0.9333 |
700 |
2.0075 |
- |
- |
| 1.0 |
750 |
- |
4.2643 |
0.2597 |
| 1.0667 |
800 |
1.9802 |
- |
- |
| 1.2 |
900 |
1.9634 |
- |
- |
| 1.3333 |
1000 |
1.9154 |
- |
- |
| 1.4667 |
1100 |
1.8959 |
- |
- |
| 1.6 |
1200 |
1.8751 |
- |
- |
| 1.7333 |
1300 |
1.8543 |
- |
- |
| 1.8667 |
1400 |
1.8239 |
- |
- |
| 2.0 |
1500 |
1.8043 |
3.7948 |
0.3092 |
| 2.1333 |
1600 |
1.7669 |
- |
- |
| 2.2667 |
1700 |
1.8016 |
- |
- |
| 2.4 |
1800 |
1.7772 |
- |
- |
| 2.5333 |
1900 |
1.7820 |
- |
- |
| 2.6667 |
2000 |
1.7574 |
- |
- |
| 2.8 |
2100 |
1.7660 |
- |
- |
| 2.9333 |
2200 |
1.7453 |
- |
- |
| 3.0 |
2250 |
- |
3.6786 |
0.3220 |
| 3.0667 |
2300 |
1.7391 |
- |
- |
| 3.2 |
2400 |
1.7686 |
- |
- |
| 3.3333 |
2500 |
1.7459 |
- |
- |
| 3.4667 |
2600 |
1.7436 |
- |
- |
| 3.6 |
2700 |
1.7415 |
- |
- |
| 3.7333 |
2800 |
1.7279 |
- |
- |
| 3.8667 |
2900 |
1.7326 |
- |
- |
| 4.0 |
3000 |
1.7603 |
3.6683 |
0.3235 |
| 4.1333 |
3100 |
1.7359 |
- |
- |
| 4.2667 |
3200 |
1.7418 |
- |
- |
| 4.4 |
3300 |
1.7469 |
- |
- |
| 4.5333 |
3400 |
1.7504 |
- |
- |
| 4.6667 |
3500 |
1.7377 |
- |
- |
| 4.8 |
3600 |
1.7363 |
- |
- |
| 4.9333 |
3700 |
1.7384 |
- |
- |
| 5.0 |
3750 |
- |
3.6664 |
0.3240 |
Framework Versions
- Python: 3.11.8
- Sentence Transformers: 5.3.0
- Transformers: 5.2.0
- PyTorch: 2.11.0+cu130
- Accelerate: 1.13.0
- Datasets: 4.8.4
- Tokenizers: 0.22.2
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MultipleNegativesRankingLoss
@misc{oord2019representationlearningcontrastivepredictive,
title={Representation Learning with Contrastive Predictive Coding},
author={Aaron van den Oord and Yazhe Li and Oriol Vinyals},
year={2019},
eprint={1807.03748},
archivePrefix={arXiv},
primaryClass={cs.LG},
url={https://arxiv.org/abs/1807.03748},
}