arthurbresnu's picture
Fix language tag (#1)
b915e42 verified
metadata
language:
  - fr
license: apache-2.0
tags:
  - sentence-transformers
  - sparse-encoder
  - sparse
  - splade
  - generated_from_trainer
  - dataset_size:483497
  - loss:SpladeLoss
  - loss:SparseMarginMSELoss
  - loss:FlopsLoss
base_model: almanach/camembert-base
widget:
  - text: lequel des muscles abdominaux est le plus superficiel
  - text: les systèmes pos ont-ils besoin d'internet
  - text: >-
      L'indice de stress météorologique, ou WSI, est une mesure relative des
      conditions météorologiques, souvent utilisée comme indicateur de confort.
      L'indice, un nombre compris entre 0 et 100, représente le pourcentage de
      temps passé avec des températures inférieures à la température actuelle,
      pour un lieu, un jour et une heure donnés.
  - text: comment rendre les planchers de sous-sol lisses
  - text: >-
      De quelle couleur est le sang. Le sang veineux (sauf dans les veines
      pulmonaires) est pauvre en oxygène, de sorte que l'hémoglobine donne au
      sang une couleur rouge foncé. Une fois que le sang a traversé les lits
      capillaires des poumons, le sang sera rouge vif avec l'hémoglobine saturée
      d'oxygène gazeux.
datasets:
  - arthurbresnu/msmarco-Qwen3-Reranker-0.6B-french
pipeline_tag: feature-extraction
library_name: sentence-transformers
metrics:
  - dot_accuracy@1
  - dot_accuracy@3
  - dot_accuracy@5
  - dot_accuracy@10
  - dot_precision@1
  - dot_precision@3
  - dot_precision@5
  - dot_precision@10
  - dot_recall@1
  - dot_recall@3
  - dot_recall@5
  - dot_recall@10
  - dot_ndcg@10
  - dot_mrr@10
  - dot_map@100
  - query_active_dims
  - query_sparsity_ratio
  - corpus_active_dims
  - corpus_sparsity_ratio
  - pearson_cosine
  - spearman_cosine
  - active_dims
  - sparsity_ratio
model-index:
  - name: splade-camembert-base-v2
    results:
      - task:
          type: sparse-information-retrieval
          name: Sparse Information Retrieval
        dataset:
          name: NanoFrenchMSMARCO
          type: NanoFrenchMSMARCO
        metrics:
          - type: dot_accuracy@1
            value: 0.36
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.56
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.64
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.82
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.36
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.18666666666666668
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.128
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.08199999999999999
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.36
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.56
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.64
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.82
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.5672503034893386
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.48932539682539683
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.4964516557112465
            name: Dot Map@100
          - type: query_active_dims
            value: 97.19999694824219
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.9969629746305814
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 320.9422912597656
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.9899721202543427
            name: Corpus Sparsity Ratio
          - type: dot_accuracy@1
            value: 0.38
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.58
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.68
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.8
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.38
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.19333333333333333
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.136
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.08
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.38
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.58
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.68
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.8
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.57316494185967
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.5022619047619048
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.5113980065685948
            name: Dot Map@100
          - type: query_active_dims
            value: 93.54000091552734
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.9970773316383212
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 340.59747314453125
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.9893579917780181
            name: Corpus Sparsity Ratio
      - task:
          type: sparse-information-retrieval
          name: Sparse Information Retrieval
        dataset:
          name: NanoFrenchNFCorpus
          type: NanoFrenchNFCorpus
        metrics:
          - type: dot_accuracy@1
            value: 0.38
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.54
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.56
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.62
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.38
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.33333333333333326
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.31200000000000006
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.27
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.024565149084599936
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.048429838495373294
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.07398906948015295
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.1386804380914821
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.3125775453054018
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.46341269841269833
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.12624373866292496
            name: Dot Map@100
          - type: query_active_dims
            value: 107.4000015258789
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.9966442742844593
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 411.68572998046875
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.9871368308082965
            name: Corpus Sparsity Ratio
          - type: dot_accuracy@1
            value: 0.42
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.5
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.56
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.64
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.42
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.3133333333333333
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.29600000000000004
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.27399999999999997
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.025143380377116945
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.054455110237352056
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.09253685233430252
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.12288711045433186
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.3151161614045225
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.4813015873015873
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.12802106820878023
            name: Dot Map@100
          - type: query_active_dims
            value: 103.80000305175781
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.9967567566614042
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 441.6481628417969
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.9862006510594659
            name: Corpus Sparsity Ratio
      - task:
          type: sparse-information-retrieval
          name: Sparse Information Retrieval
        dataset:
          name: NanoFrenchNQ
          type: NanoFrenchNQ
        metrics:
          - type: dot_accuracy@1
            value: 0.32
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.64
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.66
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.76
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.32
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.21333333333333332
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.14400000000000002
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.08199999999999999
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.31
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.6
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.65
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.74
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.5328359660527703
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.4699126984126984
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.46572477868807666
            name: Dot Map@100
          - type: query_active_dims
            value: 111.55999755859375
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.9965142947177443
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 475.15411376953125
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.9851537536706911
            name: Corpus Sparsity Ratio
          - type: dot_accuracy@1
            value: 0.3
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.64
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.7
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.76
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.3
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.21333333333333332
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.15200000000000002
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.08199999999999999
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.29
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.6
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.69
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.74
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.5375748474117438
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.47516666666666657
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.4707188202009631
            name: Dot Map@100
          - type: query_active_dims
            value: 110.27999877929688
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.9965542884305797
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 506.67071533203125
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.9841690137374776
            name: Corpus Sparsity Ratio
      - task:
          type: sparse-nano-beir
          name: Sparse Nano BEIR
        dataset:
          name: FrenchNanoBEIR mean
          type: FrenchNanoBEIR_mean
        metrics:
          - type: dot_accuracy@1
            value: 0.35333333333333333
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.5800000000000001
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.6200000000000001
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.7333333333333334
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.35333333333333333
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.24444444444444438
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.19466666666666668
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.14466666666666664
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.2315217163615333
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.40280994616512444
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.45466302316005097
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.5662268126971607
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.4708879382825035
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.47421693121693115
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.3628067243540827
            name: Dot Map@100
          - type: query_active_dims
            value: 105.38666534423828
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.9967071812109284
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 401.09131289117585
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.9874678546198664
            name: Corpus Sparsity Ratio
          - type: dot_accuracy@1
            value: 0.49648351648351646
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.6690423861852433
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.7583987441130299
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.8260910518053375
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.49648351648351646
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.31164835164835164
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.25071271585557303
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.1776452119309262
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.2775106435854442
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.437530782043344
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.5214228074903354
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.5960608203941352
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.5462725147946055
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.6034051979766266
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.463521095059661
            name: Dot Map@100
          - type: query_active_dims
            value: 183.74730585977
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.994258793755358
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 435.1348356166257
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.9864041607368653
            name: Corpus Sparsity Ratio
      - task:
          type: semantic-similarity
          name: Semantic Similarity
        dataset:
          name: frenchSTS dev
          type: frenchSTS-dev
        metrics:
          - type: pearson_cosine
            value: 0.7288033933783795
            name: Pearson Cosine
          - type: spearman_cosine
            value: 0.6906760527205718
            name: Spearman Cosine
          - type: active_dims
            value: 163.7789306640625
            name: Active Dims
          - type: sparsity_ratio
            value: 0.994882707993624
            name: Sparsity Ratio
      - task:
          type: sparse-information-retrieval
          name: Sparse Information Retrieval
        dataset:
          name: NanoFrenchClimateFEVER
          type: NanoFrenchClimateFEVER
        metrics:
          - type: dot_accuracy@1
            value: 0.18
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.36
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.5
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.6
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.18
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.12666666666666665
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.10800000000000001
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.076
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.075
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.15733333333333333
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.22966666666666669
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.31133333333333335
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.22526332464375717
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.2981904761904762
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.16918567447635577
            name: Dot Map@100
          - type: query_active_dims
            value: 299
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.9906577097328543
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 427.4809265136719
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.9866433080295681
            name: Corpus Sparsity Ratio
      - task:
          type: sparse-information-retrieval
          name: Sparse Information Retrieval
        dataset:
          name: NanoFrenchDBPedia
          type: NanoFrenchDBPedia
        metrics:
          - type: dot_accuracy@1
            value: 0.68
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.86
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.92
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.94
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.68
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.5800000000000001
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.536
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.484
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.05824354525741762
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.16112675620793346
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.20990640365085567
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.33848138160777524
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.5830264831939957
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.7801904761904762
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.43519800452823887
            name: Dot Map@100
          - type: query_active_dims
            value: 107.30000305175781
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.9966473987485781
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 486.1007385253906
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.9848117250890364
            name: Corpus Sparsity Ratio
      - task:
          type: sparse-information-retrieval
          name: Sparse Information Retrieval
        dataset:
          name: NanoFrenchFEVER
          type: NanoFrenchFEVER
        metrics:
          - type: dot_accuracy@1
            value: 0.7
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.8
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.92
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.98
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.7
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.2866666666666666
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.19599999999999998
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.10399999999999998
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.66
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.7733333333333333
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.8833333333333333
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.9433333333333332
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.8064811061401568
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.7833571428571431
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.7547637721755369
            name: Dot Map@100
          - type: query_active_dims
            value: 257.9800109863281
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.9919393841279073
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 648.0828857421875
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.9797505737934015
            name: Corpus Sparsity Ratio
      - task:
          type: sparse-information-retrieval
          name: Sparse Information Retrieval
        dataset:
          name: NanoFrenchFiQA2018
          type: NanoFrenchFiQA2018
        metrics:
          - type: dot_accuracy@1
            value: 0.44
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.54
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.64
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.74
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.44
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.26
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.196
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.12399999999999999
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.23941269841269844
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.38634920634920633
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.4780634920634921
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.5748968253968255
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.47523676082303196
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.5264126984126984
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.4049263221001773
            name: Dot Map@100
          - type: query_active_dims
            value: 105.19999694824219
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.9967130136869788
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 393.1255798339844
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.987716744888799
            name: Corpus Sparsity Ratio
      - task:
          type: sparse-information-retrieval
          name: Sparse Information Retrieval
        dataset:
          name: NanoFrenchHotpotQA
          type: NanoFrenchHotpotQA
        metrics:
          - type: dot_accuracy@1
            value: 0.8
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.88
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.94
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.98
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.8
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.44666666666666655
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.29999999999999993
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.15599999999999997
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.4
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.67
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.75
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.78
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.7469493660905022
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.8556666666666666
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.68936235875885
            name: Dot Map@100
          - type: query_active_dims
            value: 192.63999938964844
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.9939809404971208
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 552.5831298828125
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.9827344749294543
            name: Corpus Sparsity Ratio
      - task:
          type: sparse-information-retrieval
          name: Sparse Information Retrieval
        dataset:
          name: NanoFrenchQuoraRetrieval
          type: NanoFrenchQuoraRetrieval
        metrics:
          - type: dot_accuracy@1
            value: 0.76
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.88
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.98
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.98
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.76
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.3533333333333333
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.23599999999999993
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.12599999999999997
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.674
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.8413333333333333
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.9346666666666666
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.9553333333333334
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.8580920235720106
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.8406666666666668
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.8190792669432204
            name: Dot Map@100
          - type: query_active_dims
            value: 107.86000061035156
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.9966299015588079
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 104.7621841430664
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.9967266931997167
            name: Corpus Sparsity Ratio
      - task:
          type: sparse-information-retrieval
          name: Sparse Information Retrieval
        dataset:
          name: NanoFrenchSCIDOCS
          type: NanoFrenchSCIDOCS
        metrics:
          - type: dot_accuracy@1
            value: 0.38
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.6
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.66
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.82
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.38
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.29333333333333333
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.24
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.17
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.07866666666666668
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.18066666666666667
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.24566666666666667
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.34766666666666673
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.3312292792966583
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.513968253968254
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.2513428631021372
            name: Dot Map@100
          - type: query_active_dims
            value: 151.72000122070312
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.9952594906664364
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 413.0921630859375
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.9870928866400269
            name: Corpus Sparsity Ratio
      - task:
          type: sparse-information-retrieval
          name: Sparse Information Retrieval
        dataset:
          name: NanoFrenchArguAna
          type: NanoFrenchArguAna
        metrics:
          - type: dot_accuracy@1
            value: 0.1
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.4
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.56
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.68
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.1
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.13333333333333333
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.11200000000000003
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.068
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.1
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.4
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.56
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.68
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.3878020730431033
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.2942619047619047
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.30642444584641493
            name: Dot Map@100
          - type: query_active_dims
            value: 528.760009765625
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.9834788311274606
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 484.57635498046875
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.984859354632699
            name: Corpus Sparsity Ratio
      - task:
          type: sparse-information-retrieval
          name: Sparse Information Retrieval
        dataset:
          name: NanoFrenchSciFact
          type: NanoFrenchSciFact
        metrics:
          - type: dot_accuracy@1
            value: 0.6
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.78
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.84
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.86
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.6
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.28
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.18799999999999997
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.09599999999999997
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.575
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.765
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.83
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.85
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.731195750403338
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.6945238095238095
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.6913556573450191
            name: Dot Map@100
          - type: query_active_dims
            value: 231.9600067138672
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.9927523822304681
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 441.13531494140625
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.9862166750526041
            name: Corpus Sparsity Ratio
      - task:
          type: sparse-information-retrieval
          name: Sparse Information Retrieval
        dataset:
          name: NanoFrenchTouche2020
          type: NanoFrenchTouche2020
        metrics:
          - type: dot_accuracy@1
            value: 0.7142857142857143
            name: Dot Accuracy@1
          - type: dot_accuracy@3
            value: 0.8775510204081632
            name: Dot Accuracy@3
          - type: dot_accuracy@5
            value: 0.9591836734693877
            name: Dot Accuracy@5
          - type: dot_accuracy@10
            value: 0.9591836734693877
            name: Dot Accuracy@10
          - type: dot_precision@1
            value: 0.7142857142857143
            name: Dot Precision@1
          - type: dot_precision@3
            value: 0.5714285714285715
            name: Dot Precision@3
          - type: dot_precision@5
            value: 0.563265306122449
            name: Dot Precision@5
          - type: dot_precision@10
            value: 0.46938775510204084
            name: Dot Precision@10
          - type: dot_recall@1
            value: 0.05217207589687473
            name: Dot Recall@1
          - type: dot_recall@3
            value: 0.11830242710231433
            name: Dot Recall@3
          - type: dot_recall@5
            value: 0.19465641599237601
            name: Dot Recall@5
          - type: dot_recall@10
            value: 0.3048586809981585
            name: Dot Recall@10
          - type: dot_ndcg@10
            value: 0.5304105744473808
            name: Dot Ndcg@10
          - type: dot_mrr@10
            value: 0.7982993197278911
            name: Dot Mrr@10
          - type: dot_map@100
            value: 0.39399797552130406
            name: Dot Map@100
          - type: query_active_dims
            value: 96.93877410888672
            name: Query Active Dims
          - type: query_sparsity_ratio
            value: 0.9969711365690084
            name: Query Sparsity Ratio
          - type: corpus_active_dims
            value: 410.17596435546875
            name: Corpus Active Dims
          - type: corpus_sparsity_ratio
            value: 0.987184003613327
            name: Corpus Sparsity Ratio

splade-camembert-base-v2

This is a SPLADE Sparse Encoder model finetuned from almanach/camembert-base on the msmarco-qwen3-reranker-0.6_b-french dataset using the sentence-transformers library. It maps sentences & paragraphs to a 32005-dimensional sparse vector space and can be used for semantic search and sparse retrieval.

Model Details

Model Description

Model Sources

Full Model Architecture

SparseEncoder(
  (0): MLMTransformer({'max_seq_length': 512, 'do_lower_case': False, 'architecture': 'CamembertForMaskedLM'})
  (1): SpladePooling({'pooling_strategy': 'max', 'activation_function': 'relu', 'word_embedding_dimension': 32005})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SparseEncoder

# Download from the 🤗 Hub
model = SparseEncoder("arthurbresnu/splade-camembert-base-v2")
# Run inference
queries = [
    "quel poison rend le sang rouge vif ?",
]
documents = [
    "La décoloration rouge cerise de la peau et des muqueuses est un signe souvent cité d'intoxication au monoxyde de carbone (CO)x1Les dangers du monoxyde de carbone. N Engl J Med. 1995\xa0; 332\xa0:\xa0894.",
    "SDStaff Hawk répond : Le sang est d'un rouge vif sous sa forme oxygénée (c'est-à-dire quittant les poumons), lorsque l'hémoglobine est liée à l'oxygène pour former l'oxyhémoglobine. C'est un rouge foncé sous sa forme désoxygénée (c'est-à-dire qui retourne aux poumons), lorsque l'hémoglobine est liée au dioxyde de carbone pour former la carboxyhémoglobine. Les veines apparaissent bleues parce que la lumière, pénétrant la peau, est absorbée et réfléchie vers l'œil. Étant donné que seules les longueurs d'onde d'énergie plus élevée peuvent le faire (les longueurs d'onde d'énergie plus faible n'ont tout simplement pas le *oomph*), seules les longueurs d'onde d'énergie plus élevées sont vues.",
    'Les couleurs vives et accrocheuses de la grenouille venimeuse – les nuances de bleu, rouge, orange, jaune, vert et noir – sont également une forme de protection.',
]
query_embeddings = model.encode_query(queries)
document_embeddings = model.encode_document(documents)
print(query_embeddings.shape, document_embeddings.shape)
# [1, 32005] [3, 32005]

# Get the similarity scores for the embeddings
similarities = model.similarity(query_embeddings, document_embeddings)
print(similarities)
# tensor([[ 6.2209, 10.4989,  6.2333]])

Evaluation

Metrics

Sparse Information Retrieval

  • Datasets: NanoFrenchMSMARCO, NanoFrenchNFCorpus, NanoFrenchNQ, NanoFrenchClimateFEVER, NanoFrenchDBPedia, NanoFrenchFEVER, NanoFrenchFiQA2018, NanoFrenchHotpotQA, NanoFrenchMSMARCO, NanoFrenchNFCorpus, NanoFrenchNQ, NanoFrenchQuoraRetrieval, NanoFrenchSCIDOCS, NanoFrenchArguAna, NanoFrenchSciFact and NanoFrenchTouche2020 from this collection
  • Evaluated with SparseInformationRetrievalEvaluator
Metric NanoFrenchMSMARCO NanoFrenchNFCorpus NanoFrenchNQ NanoFrenchClimateFEVER NanoFrenchDBPedia NanoFrenchFEVER NanoFrenchFiQA2018 NanoFrenchHotpotQA NanoFrenchQuoraRetrieval NanoFrenchSCIDOCS NanoFrenchArguAna NanoFrenchSciFact NanoFrenchTouche2020
dot_accuracy@1 0.38 0.42 0.3 0.18 0.68 0.7 0.44 0.8 0.76 0.38 0.1 0.6 0.7143
dot_accuracy@3 0.58 0.5 0.64 0.36 0.86 0.8 0.54 0.88 0.88 0.6 0.4 0.78 0.8776
dot_accuracy@5 0.68 0.56 0.7 0.5 0.92 0.92 0.64 0.94 0.98 0.66 0.56 0.84 0.9592
dot_accuracy@10 0.8 0.64 0.76 0.6 0.94 0.98 0.74 0.98 0.98 0.82 0.68 0.86 0.9592
dot_precision@1 0.38 0.42 0.3 0.18 0.68 0.7 0.44 0.8 0.76 0.38 0.1 0.6 0.7143
dot_precision@3 0.1933 0.3133 0.2133 0.1267 0.58 0.2867 0.26 0.4467 0.3533 0.2933 0.1333 0.28 0.5714
dot_precision@5 0.136 0.296 0.152 0.108 0.536 0.196 0.196 0.3 0.236 0.24 0.112 0.188 0.5633
dot_precision@10 0.08 0.274 0.082 0.076 0.484 0.104 0.124 0.156 0.126 0.17 0.068 0.096 0.4694
dot_recall@1 0.38 0.0251 0.29 0.075 0.0582 0.66 0.2394 0.4 0.674 0.0787 0.1 0.575 0.0522
dot_recall@3 0.58 0.0545 0.6 0.1573 0.1611 0.7733 0.3863 0.67 0.8413 0.1807 0.4 0.765 0.1183
dot_recall@5 0.68 0.0925 0.69 0.2297 0.2099 0.8833 0.4781 0.75 0.9347 0.2457 0.56 0.83 0.1947
dot_recall@10 0.8 0.1229 0.74 0.3113 0.3385 0.9433 0.5749 0.78 0.9553 0.3477 0.68 0.85 0.3049
dot_ndcg@10 0.5732 0.3151 0.5376 0.2253 0.583 0.8065 0.4752 0.7469 0.8581 0.3312 0.3878 0.7312 0.5304
dot_mrr@10 0.5023 0.4813 0.4752 0.2982 0.7802 0.7834 0.5264 0.8557 0.8407 0.514 0.2943 0.6945 0.7983
dot_map@100 0.5114 0.128 0.4707 0.1692 0.4352 0.7548 0.4049 0.6894 0.8191 0.2513 0.3064 0.6914 0.394
query_active_dims 93.54 103.8 110.28 299.0 107.3 257.98 105.2 192.64 107.86 151.72 528.76 231.96 96.9388
query_sparsity_ratio 0.9971 0.9968 0.9966 0.9907 0.9966 0.9919 0.9967 0.994 0.9966 0.9953 0.9835 0.9928 0.997
corpus_active_dims 340.5975 441.6482 506.6707 427.4809 486.1007 648.0829 393.1256 552.5831 104.7622 413.0922 484.5764 441.1353 410.176
corpus_sparsity_ratio 0.9894 0.9862 0.9842 0.9866 0.9848 0.9798 0.9877 0.9827 0.9967 0.9871 0.9849 0.9862 0.9872

Sparse Nano BEIR

  • Dataset: FrenchNanoBEIR_mean
  • Evaluated with SparseNanoBEIREvaluator with these parameters:
    {
        "dataset_names": [
            "msmarco",
            "nfcorpus",
            "nq"
        ]
    }
    
Metric Value
dot_accuracy@1 0.3533
dot_accuracy@3 0.58
dot_accuracy@5 0.62
dot_accuracy@10 0.7333
dot_precision@1 0.3533
dot_precision@3 0.2444
dot_precision@5 0.1947
dot_precision@10 0.1447
dot_recall@1 0.2315
dot_recall@3 0.4028
dot_recall@5 0.4547
dot_recall@10 0.5662
dot_ndcg@10 0.4709
dot_mrr@10 0.4742
dot_map@100 0.3628
query_active_dims 105.3867
query_sparsity_ratio 0.9967
corpus_active_dims 401.0913
corpus_sparsity_ratio 0.9875

Semantic Similarity

Metric Value
pearson_cosine 0.7288
spearman_cosine 0.6907
active_dims 163.7789
sparsity_ratio 0.9949

Sparse Nano BEIR

  • Dataset: FrenchNanoBEIR_mean
  • Evaluated with SparseNanoBEIREvaluator with these parameters:
    {
        "dataset_names": [
            "climatefever",
            "dbpedia",
            "fever",
            "fiqa2018",
            "hotpotqa",
            "msmarco",
            "nfcorpus",
            "nq",
            "quoraretrieval",
            "scidocs",
            "arguana",
            "scifact",
            "touche2020"
        ]
    }
    
Metric Value
dot_accuracy@1 0.4965
dot_accuracy@3 0.669
dot_accuracy@5 0.7584
dot_accuracy@10 0.8261
dot_precision@1 0.4965
dot_precision@3 0.3116
dot_precision@5 0.2507
dot_precision@10 0.1776
dot_recall@1 0.2775
dot_recall@3 0.4375
dot_recall@5 0.5214
dot_recall@10 0.5961
dot_ndcg@10 0.5463
dot_mrr@10 0.6034
dot_map@100 0.4635
query_active_dims 183.7473
query_sparsity_ratio 0.9943
corpus_active_dims 435.1348
corpus_sparsity_ratio 0.9864

Training Details

Training Dataset

msmarco-qwen3-reranker-0.6_b-french

  • Dataset: msmarco-qwen3-reranker-0.6_b-french at 0be06a4
  • Size: 483,497 training samples
  • Columns: query, positive, negative_1, negative_2, negative_3, negative_4, negative_5, negative_6, negative_7, negative_8, and score
  • Approximate statistics based on the first 1000 samples:
    query positive negative_1 negative_2 negative_3 negative_4 negative_5 negative_6 negative_7 negative_8 score
    type string string string string string string string string string string list
    details
    • min: 4 tokens
    • mean: 11.88 tokens
    • max: 57 tokens
    • min: 18 tokens
    • mean: 97.06 tokens
    • max: 342 tokens
    • min: 16 tokens
    • mean: 82.65 tokens
    • max: 383 tokens
    • min: 5 tokens
    • mean: 84.69 tokens
    • max: 264 tokens
    • min: 18 tokens
    • mean: 84.7 tokens
    • max: 404 tokens
    • min: 19 tokens
    • mean: 86.36 tokens
    • max: 407 tokens
    • min: 15 tokens
    • mean: 86.79 tokens
    • max: 286 tokens
    • min: 13 tokens
    • mean: 86.67 tokens
    • max: 320 tokens
    • min: 19 tokens
    • mean: 88.65 tokens
    • max: 288 tokens
    • min: 16 tokens
    • mean: 85.17 tokens
    • max: 230 tokens
    • size: 9 elements
  • Samples:
    query positive negative_1 negative_2 negative_3 negative_4 negative_5 negative_6 negative_7 negative_8 score
    qu'est-ce que le clomifène Utilisations de ce médicament. Le clomifène est utilisé comme médicament contre la fertilité chez certaines femmes incapables de devenir enceintes. Le clomifène agit probablement en modifiant l'équilibre hormonal du corps. Chez les femmes, cela provoque l'ovulation et prépare le corps à la grossesse.ses de ce médicament. Le clomifène est utilisé comme médicament contre la fertilité chez certaines femmes incapables de devenir enceintes. Le clomifène agit probablement en modifiant l'équilibre hormonal du corps. Chez les femmes, cela provoque l'ovulation et prépare le corps à la grossesse. Le citrate de clomifène, une hormone synthétique couramment utilisée pour induire ou réguler l'ovulation, est la pilule de fertilité la plus souvent prescrite. Les noms de marque pour le citrate de clomifène incluent Clomid et Serophene. Le clomifène agit indirectement pour stimuler l'ovulation. Parfois, le clomifène peut trop stimuler les ovaires, provoquant la libération de plusieurs ovules, ce qui peut entraîner des naissances multiples, telles que des jumeaux ou des triplés (voir Clomid et jumeaux). Le clomifène est l'un des médicaments de fertilité les moins chers et les plus faciles à utiliser. Cependant, cela ne fonctionnera pas pour tous les types d'infertilité. Votre fournisseur de soins de santé doit essayer de trouver la cause de votre infertilité avant d'essayer le clomifène. Le citrate de clomifène offre deux avantages à l'athlète qui améliore ses performances, l'un étant le principal. Le plus souvent, ce SERM est utilisé à des fins de récupération post-cycle ; spécifiquement pour stimuler la production naturelle de testostérone qui a été supprimée en raison de l'utilisation de stéroïdes anabolisants. SOPK et problèmes d'ovulation et traitement Clomid. Clomid (citrate de clomifène ou Serophene) est un médicament oral couramment utilisé pour le traitement de l'infertilité. Il est souvent administré pour tenter de provoquer l'ovulation chez les femmes qui ne développent pas et ne libèrent pas d'ovule (ovuler) d'elles-mêmes. Indication : Clomid (citrate de clomifène) est souvent le premier choix pour traiter l'infertilité, car il est efficace et utilisé depuis plus de 40 ans. Description de Clomid. 1 Clomid (comprimés de citrate de clomifène USP) est un stimulant ovulatoire non stéroïdien administré par voie orale désigné chimiquement sous le nom de citrate de 2-[p-(2-chloro-1,2-diphénylvinyl)phénoxy] triéthylamine (1:1). Il a la formule moléculaire de C26H28ClNO • C6H8O7 et un poids moléculaire de 598,09. SOPK et problèmes d'ovulation et traitement Clomid. Clomid (citrate de clomifène ou Serophene) est un médicament oral couramment utilisé pour le traitement de l'infertilité. 1 Il est souvent administré pour tenter de provoquer l'ovulation chez les femmes qui ne développent pas et ne libèrent pas d'ovule (ovuler) d'elles-mêmes. Clomid est commencé au début du cycle menstruel et est pris pendant cinq jours, soit du 3e au 7e jour du cycle, soit du 5e au 9e jour. . Clomid est pris sous forme de pilule. Ceci est différent des médicaments de fertilité plus forts, qui nécessitent une injection. Clomid est également très efficace, stimulant l'ovulation 80 pour cent du temps. Clomid peut également être commercialisé sous le nom Serophene, ou vous pouvez le voir vendu sous son nom générique, le citrate de clomifène. Remarque : Clomid peut également être utilisé comme traitement de l'infertilité masculine. Cet article se concentre sur le traitement Clomid chez les femmes. [4.75390625, 6.9375, 3.92578125, 1.0400390625, 5.61328125, ...]
    coût comptable typique pour l'entrepreneur informatique Sur le marché actuel, nous avons vu des taux aussi bas que 50 £ + TVA, et aussi élevés que 180 £ + TVA pour les comptables contractuels dédiés . Il est intéressant de noter que le coût moyen de la comptabilité des sous-traitants n'a pas augmenté parallèlement à l'inflation au cours de la dernière décennie. Alors, combien coûte un entrepreneur, entre 5 % et 25 % du coût total du projet, avec une moyenne allant de 10 à 15 %. compétences. La manière exacte dont un entrepreneur général facture un projet dépend du type de contrat que vous acceptez. Il existe trois types courants de contrats de coûts, à prix fixe, temps et matériaux et coût plus frais. 1 Les comptables facturent de 150 $ à 400 $ ou plus de l'heure, selon le type de travail, la taille de l'entreprise et son emplacement. 2 Vous paierez des taux inférieurs pour le travail de routine effectué par un associé moins expérimenté ou un employé moins formé, par exemple 30 $ à 50 $ pour les services de tenue de livres. 3 Le total des honoraires d'un comptable dépend du projet. Pour un démarrage simple, attendez-vous à un minimum de 0,5 à 1,5 heure de consultation (75 $ à 600 $) pour passer en revue la structure de votre entreprise et les questions fiscales de base. Alors, combien coûte un entrepreneur, entre 5% et 25% du coût total du projet, avec une moyenne allant de 10 à 15%. La manière exacte dont un entrepreneur général facture un projet dépend du type de contrat que vous acceptez. Il existe trois types courants de contrats de coûts, à prix fixe, temps et matériaux et coût plus frais. Chaque type de contrat présente des avantages et des inconvénients à la fois pour le consommateur et pour l'entrepreneur. 1 Les comptables facturent de 150 $ à 400 $ ou plus de l'heure, selon le type de travail, la taille de l'entreprise et son emplacement. 2 Vous paierez des taux inférieurs pour le travail de routine effectué par un associé moins expérimenté ou un employé moins formé, par exemple 30 $ à 50 $ pour les services de tenue de livres. 3 Le total des honoraires d'un comptable dépend du projet. le salaire moyen des frappes de saisie de données par heure le salaire moyen pour les frappes de saisie de données par heure est de 20 000 $ Les services de comptabilité coûtent généralement de 250 $ à 400 $ par mois, ou de 350 $ à 500 $ par trimestre. Taxes de vente et recs bancaires inclus. Nous effectuons tout le traitement, le dépôt et les dépôts fiscaux. 5 employés, paie aux deux semaines, dépôt direct, 135 $ par mois. Moins c'est sous-traité, moins cher ce sera pour vous. Un comptable devrait être payé entre 15 $ et 18 $ de l'heure. Un comptable titulaire d'un diplôme de premier cycle (4 ans) devrait être payé environ 20 $ l'heure, mais cela dépend toujours de ce que vous lui demandez de faire. Un comptable avec un diplôme d'études supérieures (maîtrise) devrait être payé entre 25 $ et 30 $ de l'heure. Payer par niveau d'expérience pour l'analyste du renseignement. Médiane de toutes les rémunérations (y compris les pourboires, les primes et les heures supplémentaires) par années d'expérience. Les analystes du renseignement avec beaucoup d'expérience ont tendance à bénéficier de revenus plus élevés. [7.44921875, 3.271484375, 5.859375, 3.234375, 5.421875, ...]
    qu'est-ce que mch sur un test sanguin Ce que signifient les niveaux élevés. Les niveaux de MCH dans les tests sanguins sont considérés comme élevés s'ils sont de 35 ou plus. Un taux d'hémoglobine normal est considéré comme compris entre 26 et 33 picogrammes par globule rouge. Des taux élevés de MCH peuvent indiquer une anémie macrocytaire, qui peut être causée par un manque de vitamine B12. Les globules rouges acrocytaires sont gros et ont donc tendance à avoir un MCH plus élevé, tandis que les globules rouges microcytaires auraient une valeur inférieure. MCH est l'un des trois indices de globules rouges (MCHC et MCV sont les deux autres). Les mesures sont effectuées par machine et peuvent aider au diagnostic de problèmes médicaux. MCH signifie hémoglobine corpusculaire moyenne. Il estime la quantité moyenne d'hémoglobine dans chaque globule rouge, mesurée en picogrammes (un trillionième de gramme). Les compteurs de cellules automatisés calculent la MCH, qui est signalée dans le cadre d'un test de numération globulaire complète (CBC). La MCH peut être faible en anémie ferriprive et élevée en anémie due à une carence en vitamine B12 ou en folate. D'autres formes d'anémie peuvent également rendre la MCH anormale. Les médecins n'utilisent l'HME qu'à titre d'information à l'appui, pas pour poser un diagnostic. A. MCH signifie hémoglobine corpusculaire moyenne. Il estime la quantité moyenne d'hémoglobine dans chaque globule rouge, mesurée en picogrammes (un trillionième de gramme). Les compteurs de cellules automatisés calculent la MCH, qui est signalée dans le cadre d'un test de numération globulaire complète (CBC). La MCH peut être faible en anémie ferriprive et élevée en anémie due à une carence en vitamine B12 ou en folate. D'autres formes d'anémie peuvent également rendre la MCH anormale. Le test utilisé pour déterminer la quantité d'hémoglobine dans le sang est connu sous le nom de test sanguin MCH. La forme complète de MCH est l'hémoglobine corpusculaire moyenne. Ce test est donc utilisé pour déterminer la quantité moyenne d'hémoglobine par globule rouge dans le corps. Les résultats du test sanguin MCH sont donc rapportés en picogrammes, une toute petite mesure du poids. Un test sanguin MCH élevé indique qu'il y a un faible apport d'oxygène dans le sang, alors qu'un test sanguin MCH faible signifie que l'hémoglobine est trop faible dans les cellules, ce qui indique un manque de fer. Il est important que le fer soit maintenu à un certain niveau car trop ou trop peu de fer peut être dangereux pour votre corps. diapositive 1 sur 7. Qu'est-ce que la SMI ? MCH est le sigle de Mean Corpuscular Hemoglobin. Tiré du latin, le terme fait référence à la quantité moyenne d'hémoglobine présente dans les globules rouges. Un test sanguin CBC (numération globulaire complète) peut être utilisé pour surveiller les niveaux de MCH dans le sang. Lab Tests Online explique que l'aspect MCH d'un test CBC est une mesure de la quantité moyenne d'hémoglobine transportant l'oxygène à l'intérieur d'un globule rouge. Les globules rouges macrocytaires sont gros et ont donc tendance à avoir une MCH plus élevée, tandis que les globules rouges microcytaires auraient une valeur inférieure. Le test utilisé pour déterminer la quantité d'hémoglobine dans le sang est connu sous le nom de test sanguin MCH. La forme complète de MCH est l'hémoglobine corpusculaire moyenne. Ce test est donc utilisé pour déterminer la quantité moyenne d'hémoglobine par globule rouge dans le corps. Les résultats du test sanguin MCH sont donc rapportés en picogrammes, une toute petite mesure du poids. La plage normale du test sanguin MCH se situe entre 26 et 33 pg par cellule. Un test MCHC est un test qui est effectué pour tester une personne pour l'anémie. Le MCHC dans un test MCHC signifie Concentration Corpusculaire Moyenne d'Hémoglobine. MCHC est le calcul de l'hémoglobine moyenne à l'intérieur d'un globule rouge. Un test MCHC peut être effectué avec un test MCV (Mean Corpuscular Volume). Les deux niveaux sont utilisés pour tester les personnes pour l'anémie. Le test MCHC est également connu sous le nom de test sanguin MCH qui teste les niveaux d'hémoglobine dans le sang. Le test MCHC peut être commandé dans le cadre d'une numération formule sanguine (CBC). Le CHC est mesuré en grammes par décilitre. Les lectures normales pour MCHC sont de 31 grammes par décilitre à 35 grammes par décilitre. Un test sanguin MCHC peut être demandé lorsqu'une personne montre des signes de fatigue ou de faiblesse, lorsqu'il y a une infection, qu'elle saigne ou qu'elle a des ecchymoses facilement ou lorsqu'il y a une inflammation. Le test examine la quantité moyenne d'hémoglobine par globule rouge. Donc MCHC = la quantité d'hémoglobine présente dans chaque globule rouge. Un test sanguin MCHC peut être demandé pour une personne qui présente des signes de fatigue ou de faiblesse, lorsqu'il y a une infection, qu'elle saigne ou qu'elle a des ecchymoses facilement ou lorsqu'il y a une inflammation notable. [6.44921875, 7.05078125, 7.2109375, 8.40625, 6.53515625, ...]
  • Loss: SpladeLoss with these parameters:
    {
        "loss": "SparseMarginMSELoss",
        "document_regularizer_weight": 0.1,
        "query_regularizer_weight": 0.001
    }
    

Evaluation Dataset

msmarco-qwen3-reranker-0.6_b-french

  • Dataset: msmarco-qwen3-reranker-0.6_b-french at 0be06a4
  • Size: 10,000 evaluation samples
  • Columns: query, positive, negative_1, negative_2, negative_3, negative_4, negative_5, negative_6, negative_7, negative_8, and score
  • Approximate statistics based on the first 1000 samples:
    query positive negative_1 negative_2 negative_3 negative_4 negative_5 negative_6 negative_7 negative_8 score
    type string string string string string string string string string string list
    details
    • min: 4 tokens
    • mean: 11.79 tokens
    • max: 30 tokens
    • min: 20 tokens
    • mean: 98.71 tokens
    • max: 271 tokens
    • min: 13 tokens
    • mean: 83.87 tokens
    • max: 284 tokens
    • min: 13 tokens
    • mean: 83.19 tokens
    • max: 256 tokens
    • min: 17 tokens
    • mean: 85.99 tokens
    • max: 278 tokens
    • min: 14 tokens
    • mean: 84.73 tokens
    • max: 297 tokens
    • min: 16 tokens
    • mean: 88.16 tokens
    • max: 426 tokens
    • min: 20 tokens
    • mean: 83.38 tokens
    • max: 328 tokens
    • min: 14 tokens
    • mean: 86.38 tokens
    • max: 298 tokens
    • min: 13 tokens
    • mean: 84.92 tokens
    • max: 383 tokens
    • size: 9 elements
  • Samples:
    query positive negative_1 negative_2 negative_3 negative_4 negative_5 negative_6 negative_7 negative_8 score
    combien de personnes employées par shell Shell dans le monde entier. Royal Dutch Shell a été fondée en 1907, bien que notre histoire remonte au début du XIXe siècle, dans un petit magasin à Londres où la famille Samuel vendait des coquillages. Aujourd'hui, Shell est l'une des principales sociétés énergétiques au monde, employant en moyenne 93 000 personnes et opérant dans plus de 70 pays. Notre siège social est à La Haye, aux Pays-Bas, et notre PDG est Ben van Beurden. Afficher les informations sur les sources. Cette statistique montre le nombre d'employés de SeaWorld Entertainment, Inc. aux États-Unis, par type. En décembre 2016, SeaWorld employait 5 000 employés à temps plein et comptait environ 13 000 employés saisonniers pendant la haute saison d'exploitation. Emplois, entreprises, personnes et articles pour le spécialiste de la paie de LinkedIn - membres d'Addus Homecare, Inc.. Informations sur les membres de Payroll Specialist - Addus Homecare, Inc. sur LinkedIn. Salaire médian 31 300 $. En juillet 2014, il y avait 139 millions de personnes employées aux États-Unis. Ce nombre est en hausse de 209 000 salariés depuis juin et de 1,47 million depuis début 2014. le salaire moyen des frappes de saisie de données par heure le salaire moyen pour les frappes de saisie de données par heure est de 20 000 $ Recherchez et examinez les emplois Plano Synergy. Apprenez-en plus sur une carrière chez Plano Synergy, y compris tous les emplois récents, les tendances d'embauche, les salaires, l'environnement de travail et plus encore. Trouvez des emplois Avis sur l'entreprise Trouvez des salaires Trouvez des CV Employeurs / Publiez une offre Téléchargez votre CV Connectez-vous À partir de millions de données sur les salaires réels. 13 Données sur les salaires des spécialistes du support client. Le salaire moyen de Customer Support Specialist est de $59 032 S'identifier À partir de millions de données sur les salaires réels. 1 Données salariales du PDG Ally. Le salaire moyen du PDG Ally est de 55 000 $ Salaire de départ détaillé du PDG Ally, salaire médian, échelle salariale, rapport de données sur les primes Avantages et avantages de HelpSystems, notamment sa mutuelle et sa politique en matière de retraite et de congés. Signalé de manière anonyme par les employés de HelpSystems. Glassdoor utilise des cookies pour améliorer votre expérience sur le site. [6.265625, -1.3671875, -6.91796875, 1.111328125, -7.96875, ...]
    qu'est-ce qu'un lcsw LCSW est un acronyme pour travailleur social clinique agréé, et les personnes portant ce titre sont des professionnels qualifiés qui répondent à certaines exigences et travaillent dans divers domaines. Le terme travailleur social n'est pas toujours synonyme de travailleur social clinique agréé. LISW signifie que la personne est un travailleur social indépendant agréé. LCSW signifie que la personne est un travailleur social clinique agréé. Source(s) : Introduction au travail social 101 à l'Université du Nevada, Las Vega (UNLV) Dorothy K. · il y a 1 décennie. Un LCSW est un travailleur social clinique agréé. Un LMHC est le plus récent ajout dans le domaine de la santé mentale. Ils sont très similaires et peuvent faire la plupart des mêmes choses à quelques exceptions près. Une chose à garder à l'esprit est que parce que la licence LMHC est si nouvelle, il y en a moins dans le domaine.n LCSW est une assistante sociale clinique agréée. Un LMHC est le plus récent ajout dans le domaine de la santé mentale. Ils sont très similaires et peuvent faire la plupart des mêmes choses à quelques exceptions près. Une chose à garder à l'esprit est qu'en raison de la nouveauté du LMHC, il y en a moins dans le domaine. Le travailleur social clinique agréé ou LCSW est un sous-secteur du domaine du travail social. Ils travaillent avec les clients afin de les aider à faire face aux problèmes liés à leur santé mentale et émotionnelle. Cela pourrait être lié à la toxicomanie, à un traumatisme passé ou à une maladie mentale. Travailleur social clinicien agréé LCSW. Le travailleur social clinique agréé ou LCSW est un sous-secteur du domaine du travail social. Le LCSW travaille avec les clients afin d'aider à faire face aux problèmes de santé mentale et émotionnelle. Il existe une grande variété de spécialisations sur lesquelles le travailleur social clinique agréé peut se concentrer. L'examen LMSW est un test informatisé contenant 170 questions à choix multiples conçues pour mesurer les compétences minimales dans quatre catégories de pratique du travail social : développement humain, diversité et comportement dans l'environnement. Évaluation et planification des interventions. Le travailleur social clinique agréé, également connu sous le nom de LCSW, est une branche du travail social spécialisée dans la thérapie en santé mentale sous forme de conseil. Devenir un LCSW nécessite un niveau de formation important, notamment avoir obtenu une maîtrise en travail social (MSW) d'un programme accrédité par le Council on Social Work Education (CSWE). une. Les conditions d'examen pour obtenir l'autorisation d'exercer en tant que LCSW comprennent la réussite de l'examen clinique de l'ASWB ou de l'examen clinique des travailleurs sociaux de l'État de Californie. Champ d'exercice-Limites. a. Dans la mesure où ils sont préparés par l'éducation et la formation, un LCSW peut s'engager dans tous les actes et pratiques définis comme la pratique du travail social clinique. Travail social certifié (CSW) : CSW désigne un travailleur social certifié agréé. Un CSW doit avoir une maîtrise. Le client LTCM est un moyen pour les entreprises de rester en contact avec vous, leurs clients, de manière discrète et entièrement sous le contrôle des utilisateurs. C'est une application qui s'exécute silencieusement sur l'ordinateur. Les utilisateurs peuvent et doivent personnaliser le client pour qu'il corresponde à leurs préférences souhaitées.
    le thé oolong contient-il beaucoup de caféine ? À poids donné, le thé contient plus de caféine que le café, mais cela ne veut pas dire qu'une portion habituelle de thé contient plus de caféine que le café car le thé est généralement infusé de manière faible. Certains types de thé, comme le thé oolong et le thé noir, contiennent plus de caféine que la plupart des autres thés. Parmi les six thés de base (vert, noir, jaune, blanc, oolong, foncé), le thé vert contient moins de caféine que le thé noir et le thé blanc en contient moins que le thé vert. Mais de nombreuses études ont révélé que la teneur en caféine varie davantage parmi les thés individuels que parmi les grandes catégories. En fait, le thé oolong contient moins de caféine que le café et le thé noir. Une tasse de thé oolong ne contient qu'environ 1/3 de caféine d'une tasse de café. Selon une recherche menée par HICKS M.B, la caféine diminue chaque fois que les feuilles de thé passent par le processus d'infusion. Le thé Oolong contient de la caféine. La caféine agit en stimulant le système nerveux central (SNC), le cœur et les muscles. Le thé Oolong contient également de la théophylline et de la théobromine, qui sont des produits chimiques similaires à la caféine. Trop de thé oolong, plus de cinq tasses par jour, peut provoquer des effets secondaires à cause de la caféine. Le thé Oolong, fabriqué à partir de feuilles plus mûres, contient généralement moins de caféine que le thé vert. D'un autre côté, les feuilles mûres contiennent moins de théanine, un relaxant doux et naturel qui rend un thé beaucoup moins caféiné qu'il ne l'est en réalité. C'est en tout cas la théorie. Le thé Oolong est un produit fabriqué à partir des feuilles, des bourgeons et des tiges de la plante Camellia sinensis. C'est la même plante qui est également utilisée pour faire du thé noir et du thé vert. La différence réside dans le traitement. Le thé Oolong est partiellement fermenté, le thé noir est entièrement fermenté et le thé vert n'est pas fermenté. Le thé Oolong est utilisé pour aiguiser les capacités de réflexion et améliorer la vigilance mentale. Il est également utilisé pour prévenir le cancer, la carie dentaire, l'ostéoporose et les maladies cardiaques. Cependant, ne buvez pas plus de 2 tasses de thé oolong par jour. Cette quantité de thé contient environ 200 mg de caféine. Trop de caféine pendant la grossesse peut provoquer un accouchement prématuré, un faible poids à la naissance et nuire au bébé. Un rapport du Département des services nutritionnels fournit les plages de teneur en caféine suivantes pour une tasse de thé à base de feuilles en vrac : 1 Thé noir : 23 à 110 mg. 2 Thé Oolong : 12 - 55 mg. Thé vert : 8 - 36 mg. Le thé Oolong est un produit fabriqué à partir des feuilles, des bourgeons et des tiges de la plante Camellia sinensis. C'est la même plante qui est également utilisée pour faire du thé noir et du thé vert. La différence réside dans le traitement. Le thé Oolong est partiellement fermenté, le thé noir est entièrement fermenté et le thé vert n'est pas fermenté. Le thé Oolong est utilisé pour aiguiser les capacités de réflexion et améliorer la vigilance mentale. Il est également utilisé pour prévenir le cancer, la carie dentaire, l'ostéoporose et les maladies cardiaques. Effets du thé sur la santé – Caféine. Sous forme sèche, un kilogramme de thé noir contient deux fois plus de caféine qu'un kilogramme de café. Mais un kilogramme de thé noir fait environ 450 tasses de thé et un kilogramme de café fait environ 100 tasses de café, donc. Il y a moins de caféine dans une tasse de thé que dans une tasse de café. Les thés verts contiennent moins de caféine que les thés noirs et les thés blancs contiennent encore moins de caféine que les thés verts. Les thés Oolong se situent entre les thés noirs et verts. La tisane, parce qu'elle n'est pas fabriquée à partir du même théier, est naturellement sans caféine. Voici une représentation graphique de leur teneur respective en caféine. La portion moyenne de 8 onces de thé noir infusé contient 14 à 70 mg de caféine. Cela se compare aux 24 à 45 mg de caféine contenus dans le thé vert. Un verre de 8 onces de thé glacé instantané préparé avec de l'eau contient 11 à 47 mg de caféine. La plupart des thés en bouteille prêts à boire contiennent de 5 à 40 mg de caféine. Tout comme le café, le thé décaféiné contient encore 5 à 10 mg de caféine par tasse. [7.60546875, 8.78125, 9.109375, 8.609375, 7.984375, ...]
  • Loss: SpladeLoss with these parameters:
    {
        "loss": "SparseMarginMSELoss",
        "document_regularizer_weight": 0.1,
        "query_regularizer_weight": 0.001
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 32
  • per_device_eval_batch_size: 32
  • learning_rate: 2e-05
  • num_train_epochs: 10
  • warmup_ratio: 0.05
  • save_safetensors: False
  • bf16: True
  • load_best_model_at_end: True

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 32
  • per_device_eval_batch_size: 32
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 10
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.05
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: False
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: True
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 6
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: True
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • hub_revision: None
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • liger_kernel_config: None
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional
  • router_mapping: {}
  • learning_rate_mapping: {}

Training Logs

Click to expand
Epoch Step Training Loss Validation Loss NanoFrenchMSMARCO_dot_ndcg@10 NanoFrenchNFCorpus_dot_ndcg@10 NanoFrenchNQ_dot_ndcg@10 FrenchNanoBEIR_mean_dot_ndcg@10 frenchSTS-dev_spearman_cosine NanoFrenchClimateFEVER_dot_ndcg@10 NanoFrenchDBPedia_dot_ndcg@10 NanoFrenchFEVER_dot_ndcg@10 NanoFrenchFiQA2018_dot_ndcg@10 NanoFrenchHotpotQA_dot_ndcg@10 NanoFrenchQuoraRetrieval_dot_ndcg@10 NanoFrenchSCIDOCS_dot_ndcg@10 NanoFrenchArguAna_dot_ndcg@10 NanoFrenchSciFact_dot_ndcg@10 NanoFrenchTouche2020_dot_ndcg@10
0.0265 50 20585153.28 - - - - - - - - - - - - - - - -
0.0530 100 11265000.96 - - - - - - - - - - - - - - - -
0.0794 150 2306957.76 - - - - - - - - - - - - - - - -
0.1059 200 84727.93 - - - - - - - - - - - - - - - -
0.1324 250 180.1091 - - - - - - - - - - - - - - - -
0.1589 300 48.3599 - - - - - - - - - - - - - - - -
0.1854 350 38.6951 - - - - - - - - - - - - - - - -
0.2119 400 35.3894 - - - - - - - - - - - - - - - -
0.2383 450 33.5967 - - - - - - - - - - - - - - - -
0.2648 500 32.3302 - - - - - - - - - - - - - - - -
0.2913 550 30.9431 - - - - - - - - - - - - - - - -
0.3178 600 31.6018 - - - - - - - - - - - - - - - -
0.3443 650 30.3047 - - - - - - - - - - - - - - - -
0.3708 700 29.9156 - - - - - - - - - - - - - - - -
0.3972 750 30.0303 - - - - - - - - - - - - - - - -
0.4237 800 29.2744 - - - - - - - - - - - - - - - -
0.4502 850 28.9374 - - - - - - - - - - - - - - - -
0.4767 900 28.2462 - - - - - - - - - - - - - - - -
0.5 944 - 26.5254 0.0358 0.0444 0.0388 0.0397 0.5166 - - - - - - - - - -
0.5032 950 27.0688 - - - - - - - - - - - - - - - -
0.5297 1000 24.0728 - - - - - - - - - - - - - - - -
0.5561 1050 22.3726 - - - - - - - - - - - - - - - -
0.5826 1100 21.433 - - - - - - - - - - - - - - - -
0.6091 1150 19.8246 - - - - - - - - - - - - - - - -
0.6356 1200 19.2238 - - - - - - - - - - - - - - - -
0.6621 1250 18.3018 - - - - - - - - - - - - - - - -
0.6886 1300 17.6265 - - - - - - - - - - - - - - - -
0.7150 1350 17.0156 - - - - - - - - - - - - - - - -
0.7415 1400 16.5841 - - - - - - - - - - - - - - - -
0.7680 1450 16.1089 - - - - - - - - - - - - - - - -
0.7945 1500 15.655 - - - - - - - - - - - - - - - -
0.8210 1550 15.4634 - - - - - - - - - - - - - - - -
0.8475 1600 15.161 - - - - - - - - - - - - - - - -
0.8739 1650 15.0544 - - - - - - - - - - - - - - - -
0.9004 1700 14.6081 - - - - - - - - - - - - - - - -
0.9269 1750 15.0786 - - - - - - - - - - - - - - - -
0.9534 1800 14.9494 - - - - - - - - - - - - - - - -
0.9799 1850 14.4579 - - - - - - - - - - - - - - - -
1.0 1888 - 14.3075 0.5355 0.3173 0.5006 0.4511 0.6189 - - - - - - - - - -
1.0064 1900 14.3697 - - - - - - - - - - - - - - - -
1.0328 1950 13.8919 - - - - - - - - - - - - - - - -
1.0593 2000 13.6461 - - - - - - - - - - - - - - - -
1.0858 2050 13.4206 - - - - - - - - - - - - - - - -
1.1123 2100 13.3145 - - - - - - - - - - - - - - - -
1.1388 2150 13.3614 - - - - - - - - - - - - - - - -
1.1653 2200 13.5925 - - - - - - - - - - - - - - - -
1.1917 2250 13.2236 - - - - - - - - - - - - - - - -
1.2182 2300 13.0558 - - - - - - - - - - - - - - - -
1.2447 2350 13.0191 - - - - - - - - - - - - - - - -
1.2712 2400 12.8123 - - - - - - - - - - - - - - - -
1.2977 2450 13.1506 - - - - - - - - - - - - - - - -
1.3242 2500 12.5855 - - - - - - - - - - - - - - - -
1.3506 2550 12.8401 - - - - - - - - - - - - - - - -
1.3771 2600 12.7115 - - - - - - - - - - - - - - - -
1.4036 2650 12.6968 - - - - - - - - - - - - - - - -
1.4301 2700 12.7528 - - - - - - - - - - - - - - - -
1.4566 2750 12.3611 - - - - - - - - - - - - - - - -
1.4831 2800 12.462 - - - - - - - - - - - - - - - -
1.5 2832 - 12.9295 0.5543 0.3243 0.4889 0.4559 0.6494 - - - - - - - - - -
1.5095 2850 12.4375 - - - - - - - - - - - - - - - -
1.5360 2900 12.3238 - - - - - - - - - - - - - - - -
1.5625 2950 12.5061 - - - - - - - - - - - - - - - -
1.5890 3000 12.0933 - - - - - - - - - - - - - - - -
1.6155 3050 12.3678 - - - - - - - - - - - - - - - -
1.6419 3100 12.2139 - - - - - - - - - - - - - - - -
1.6684 3150 12.0209 - - - - - - - - - - - - - - - -
1.6949 3200 12.1175 - - - - - - - - - - - - - - - -
1.7214 3250 12.0454 - - - - - - - - - - - - - - - -
1.7479 3300 12.2641 - - - - - - - - - - - - - - - -
1.7744 3350 12.0314 - - - - - - - - - - - - - - - -
1.8008 3400 12.0869 - - - - - - - - - - - - - - - -
1.8273 3450 11.7578 - - - - - - - - - - - - - - - -
1.8538 3500 11.6682 - - - - - - - - - - - - - - - -
1.8803 3550 11.663 - - - - - - - - - - - - - - - -
1.9068 3600 11.605 - - - - - - - - - - - - - - - -
1.9333 3650 11.9347 - - - - - - - - - - - - - - - -
1.9597 3700 11.8644 - - - - - - - - - - - - - - - -
1.9862 3750 11.7347 - - - - - - - - - - - - - - - -
2.0 3776 - 11.4723 0.5627 0.3087 0.5058 0.4591 0.6836 - - - - - - - - - -
2.0127 3800 11.2564 - - - - - - - - - - - - - - - -
2.0392 3850 11.121 - - - - - - - - - - - - - - - -
2.0657 3900 11.1555 - - - - - - - - - - - - - - - -
2.0922 3950 11.2267 - - - - - - - - - - - - - - - -
2.1186 4000 11.1762 - - - - - - - - - - - - - - - -
2.1451 4050 10.9489 - - - - - - - - - - - - - - - -
2.1716 4100 10.8785 - - - - - - - - - - - - - - - -
2.1981 4150 10.9404 - - - - - - - - - - - - - - - -
2.2246 4200 10.6629 - - - - - - - - - - - - - - - -
2.2511 4250 10.9971 - - - - - - - - - - - - - - - -
2.2775 4300 10.7995 - - - - - - - - - - - - - - - -
2.3040 4350 10.7151 - - - - - - - - - - - - - - - -
2.3305 4400 10.8536 - - - - - - - - - - - - - - - -
2.3570 4450 10.7067 - - - - - - - - - - - - - - - -
2.3835 4500 10.5278 - - - - - - - - - - - - - - - -
2.4100 4550 10.8879 - - - - - - - - - - - - - - - -
2.4364 4600 10.6817 - - - - - - - - - - - - - - - -
2.4629 4650 10.7279 - - - - - - - - - - - - - - - -
2.4894 4700 10.7 - - - - - - - - - - - - - - - -
2.5 4720 - 11.1667 0.5550 0.3122 0.5006 0.4559 0.6883 - - - - - - - - - -
2.5159 4750 10.673 - - - - - - - - - - - - - - - -
2.5424 4800 10.65 - - - - - - - - - - - - - - - -
2.5689 4850 10.7306 - - - - - - - - - - - - - - - -
2.5953 4900 10.5562 - - - - - - - - - - - - - - - -
2.6218 4950 10.5366 - - - - - - - - - - - - - - - -
2.6483 5000 10.343 - - - - - - - - - - - - - - - -
2.6748 5050 10.5978 - - - - - - - - - - - - - - - -
2.7013 5100 10.6023 - - - - - - - - - - - - - - - -
2.7278 5150 10.4654 - - - - - - - - - - - - - - - -
2.7542 5200 10.6042 - - - - - - - - - - - - - - - -
2.7807 5250 10.3111 - - - - - - - - - - - - - - - -
2.8072 5300 10.4856 - - - - - - - - - - - - - - - -
2.8337 5350 10.4682 - - - - - - - - - - - - - - - -
2.8602 5400 10.6341 - - - - - - - - - - - - - - - -
2.8867 5450 10.2446 - - - - - - - - - - - - - - - -
2.9131 5500 10.4203 - - - - - - - - - - - - - - - -
2.9396 5550 10.2922 - - - - - - - - - - - - - - - -
2.9661 5600 10.3565 - - - - - - - - - - - - - - - -
2.9926 5650 10.3137 - - - - - - - - - - - - - - - -
3.0 5664 - 10.6924 0.5612 0.3011 0.5067 0.4563 0.6900 - - - - - - - - - -
3.0191 5700 9.9572 - - - - - - - - - - - - - - - -
3.0456 5750 9.9094 - - - - - - - - - - - - - - - -
3.0720 5800 9.7274 - - - - - - - - - - - - - - - -
3.0985 5850 9.7687 - - - - - - - - - - - - - - - -
3.125 5900 9.7412 - - - - - - - - - - - - - - - -
3.1515 5950 9.821 - - - - - - - - - - - - - - - -
3.1780 6000 9.9769 - - - - - - - - - - - - - - - -
3.2044 6050 9.7785 - - - - - - - - - - - - - - - -
3.2309 6100 9.8235 - - - - - - - - - - - - - - - -
3.2574 6150 9.9859 - - - - - - - - - - - - - - - -
3.2839 6200 9.7764 - - - - - - - - - - - - - - - -
3.3104 6250 9.711 - - - - - - - - - - - - - - - -
3.3369 6300 9.8058 - - - - - - - - - - - - - - - -
3.3633 6350 9.6828 - - - - - - - - - - - - - - - -
3.3898 6400 9.6186 - - - - - - - - - - - - - - - -
3.4163 6450 9.7859 - - - - - - - - - - - - - - - -
3.4428 6500 9.8609 - - - - - - - - - - - - - - - -
3.4693 6550 9.66 - - - - - - - - - - - - - - - -
3.4958 6600 9.6902 - - - - - - - - - - - - - - - -
3.5 6608 - 10.3828 0.5686 0.3161 0.5154 0.4667 0.6925 - - - - - - - - - -
3.5222 6650 9.8824 - - - - - - - - - - - - - - - -
3.5487 6700 9.9114 - - - - - - - - - - - - - - - -
3.5752 6750 9.72 - - - - - - - - - - - - - - - -
3.6017 6800 9.6147 - - - - - - - - - - - - - - - -
3.6282 6850 9.6893 - - - - - - - - - - - - - - - -
3.6547 6900 9.6026 - - - - - - - - - - - - - - - -
3.6811 6950 9.7258 - - - - - - - - - - - - - - - -
3.7076 7000 9.6897 - - - - - - - - - - - - - - - -
3.7341 7050 9.7605 - - - - - - - - - - - - - - - -
3.7606 7100 9.8188 - - - - - - - - - - - - - - - -
3.7871 7150 9.7393 - - - - - - - - - - - - - - - -
3.8136 7200 9.6864 - - - - - - - - - - - - - - - -
3.8400 7250 9.5516 - - - - - - - - - - - - - - - -
3.8665 7300 9.7377 - - - - - - - - - - - - - - - -
3.8930 7350 9.7195 - - - - - - - - - - - - - - - -
3.9195 7400 9.6121 - - - - - - - - - - - - - - - -
3.9460 7450 9.5348 - - - - - - - - - - - - - - - -
3.9725 7500 9.7331 - - - - - - - - - - - - - - - -
3.9989 7550 9.4919 - - - - - - - - - - - - - - - -
4.0 7552 - 10.4966 0.5717 0.3125 0.5144 0.4662 0.6986 - - - - - - - - - -
4.0254 7600 9.2328 - - - - - - - - - - - - - - - -
4.0519 7650 9.1034 - - - - - - - - - - - - - - - -
4.0784 7700 9.0662 - - - - - - - - - - - - - - - -
4.1049 7750 9.1097 - - - - - - - - - - - - - - - -
4.1314 7800 9.2953 - - - - - - - - - - - - - - - -
4.1578 7850 9.0649 - - - - - - - - - - - - - - - -
4.1843 7900 9.0018 - - - - - - - - - - - - - - - -
4.2108 7950 9.2042 - - - - - - - - - - - - - - - -
4.2373 8000 9.1724 - - - - - - - - - - - - - - - -
4.2638 8050 9.3856 - - - - - - - - - - - - - - - -
4.2903 8100 9.0011 - - - - - - - - - - - - - - - -
4.3167 8150 9.1969 - - - - - - - - - - - - - - - -
4.3432 8200 9.1748 - - - - - - - - - - - - - - - -
4.3697 8250 9.2278 - - - - - - - - - - - - - - - -
4.3962 8300 9.0954 - - - - - - - - - - - - - - - -
4.4227 8350 9.1677 - - - - - - - - - - - - - - - -
4.4492 8400 9.1277 - - - - - - - - - - - - - - - -
4.4756 8450 9.0923 - - - - - - - - - - - - - - - -
4.5 8496 - 10.2655 0.5452 0.3144 0.5188 0.4595 0.6893 - - - - - - - - - -
4.5021 8500 8.9579 - - - - - - - - - - - - - - - -
4.5286 8550 9.1938 - - - - - - - - - - - - - - - -
4.5551 8600 8.9581 - - - - - - - - - - - - - - - -
4.5816 8650 8.9727 - - - - - - - - - - - - - - - -
4.6081 8700 9.1751 - - - - - - - - - - - - - - - -
4.6345 8750 9.1457 - - - - - - - - - - - - - - - -
4.6610 8800 9.1258 - - - - - - - - - - - - - - - -
4.6875 8850 9.0139 - - - - - - - - - - - - - - - -
4.7140 8900 9.1612 - - - - - - - - - - - - - - - -
4.7405 8950 9.0908 - - - - - - - - - - - - - - - -
4.7669 9000 9.2235 - - - - - - - - - - - - - - - -
4.7934 9050 9.0383 - - - - - - - - - - - - - - - -
4.8199 9100 9.0684 - - - - - - - - - - - - - - - -
4.8464 9150 9.0305 - - - - - - - - - - - - - - - -
4.8729 9200 9.1559 - - - - - - - - - - - - - - - -
4.8994 9250 9.1019 - - - - - - - - - - - - - - - -
4.9258 9300 9.0945 - - - - - - - - - - - - - - - -
4.9523 9350 9.2617 - - - - - - - - - - - - - - - -
4.9788 9400 9.1275 - - - - - - - - - - - - - - - -
5.0 9440 - 10.2047 0.5741 0.3054 0.5114 0.4637 0.6940 - - - - - - - - - -
5.0053 9450 9.0917 - - - - - - - - - - - - - - - -
5.0318 9500 8.6781 - - - - - - - - - - - - - - - -
5.0583 9550 8.7411 - - - - - - - - - - - - - - - -
5.0847 9600 8.7691 - - - - - - - - - - - - - - - -
5.1112 9650 8.7856 - - - - - - - - - - - - - - - -
5.1377 9700 8.6335 - - - - - - - - - - - - - - - -
5.1642 9750 8.6497 - - - - - - - - - - - - - - - -
5.1907 9800 8.7253 - - - - - - - - - - - - - - - -
5.2172 9850 8.6894 - - - - - - - - - - - - - - - -
5.2436 9900 8.655 - - - - - - - - - - - - - - - -
5.2701 9950 8.5979 - - - - - - - - - - - - - - - -
5.2966 10000 8.8238 - - - - - - - - - - - - - - - -
5.3231 10050 8.6513 - - - - - - - - - - - - - - - -
5.3496 10100 8.5982 - - - - - - - - - - - - - - - -
5.3761 10150 8.5238 - - - - - - - - - - - - - - - -
5.4025 10200 8.6476 - - - - - - - - - - - - - - - -
5.4290 10250 8.5382 - - - - - - - - - - - - - - - -
5.4555 10300 8.6012 - - - - - - - - - - - - - - - -
5.4820 10350 8.6721 - - - - - - - - - - - - - - - -
5.5 10384 - 9.8953 0.5605 0.3006 0.5076 0.4562 0.6915 - - - - - - - - - -
5.5085 10400 8.571 - - - - - - - - - - - - - - - -
5.5350 10450 8.5379 - - - - - - - - - - - - - - - -
5.5614 10500 8.7081 - - - - - - - - - - - - - - - -
5.5879 10550 8.5968 - - - - - - - - - - - - - - - -
5.6144 10600 8.6551 - - - - - - - - - - - - - - - -
5.6409 10650 8.7252 - - - - - - - - - - - - - - - -
5.6674 10700 8.6626 - - - - - - - - - - - - - - - -
5.6939 10750 8.5618 - - - - - - - - - - - - - - - -
5.7203 10800 8.5806 - - - - - - - - - - - - - - - -
5.7468 10850 8.6908 - - - - - - - - - - - - - - - -
5.7733 10900 8.7022 - - - - - - - - - - - - - - - -
5.7998 10950 8.6895 - - - - - - - - - - - - - - - -
5.8263 11000 8.5434 - - - - - - - - - - - - - - - -
5.8528 11050 8.498 - - - - - - - - - - - - - - - -
5.8792 11100 8.5912 - - - - - - - - - - - - - - - -
5.9057 11150 8.592 - - - - - - - - - - - - - - - -
5.9322 11200 8.4532 - - - - - - - - - - - - - - - -
5.9587 11250 8.4555 - - - - - - - - - - - - - - - -
5.9852 11300 8.4535 - - - - - - - - - - - - - - - -
6.0 11328 - 10.2169 0.5648 0.3165 0.5345 0.4719 0.6920 - - - - - - - - - -
6.0117 11350 8.4719 - - - - - - - - - - - - - - - -
6.0381 11400 8.2625 - - - - - - - - - - - - - - - -
6.0646 11450 8.2337 - - - - - - - - - - - - - - - -
6.0911 11500 8.3047 - - - - - - - - - - - - - - - -
6.1176 11550 8.0368 - - - - - - - - - - - - - - - -
6.1441 11600 8.1572 - - - - - - - - - - - - - - - -
6.1706 11650 8.2058 - - - - - - - - - - - - - - - -
6.1970 11700 8.192 - - - - - - - - - - - - - - - -
6.2235 11750 8.2659 - - - - - - - - - - - - - - - -
6.25 11800 8.33 - - - - - - - - - - - - - - - -
6.2765 11850 8.2533 - - - - - - - - - - - - - - - -
6.3030 11900 8.2526 - - - - - - - - - - - - - - - -
6.3294 11950 8.2337 - - - - - - - - - - - - - - - -
6.3559 12000 8.1079 - - - - - - - - - - - - - - - -
6.3824 12050 8.1821 - - - - - - - - - - - - - - - -
6.4089 12100 8.1226 - - - - - - - - - - - - - - - -
6.4354 12150 8.1514 - - - - - - - - - - - - - - - -
6.4619 12200 8.1713 - - - - - - - - - - - - - - - -
6.4883 12250 8.2378 - - - - - - - - - - - - - - - -
6.5 12272 - 10.0649 0.5709 0.3053 0.5482 0.4748 0.6893 - - - - - - - - - -
6.5148 12300 8.0695 - - - - - - - - - - - - - - - -
6.5413 12350 8.1986 - - - - - - - - - - - - - - - -
6.5678 12400 8.1587 - - - - - - - - - - - - - - - -
6.5943 12450 8.2557 - - - - - - - - - - - - - - - -
6.6208 12500 8.1228 - - - - - - - - - - - - - - - -
6.6472 12550 8.279 - - - - - - - - - - - - - - - -
6.6737 12600 8.2151 - - - - - - - - - - - - - - - -
6.7002 12650 8.1151 - - - - - - - - - - - - - - - -
6.7267 12700 8.1898 - - - - - - - - - - - - - - - -
6.7532 12750 8.1375 - - - - - - - - - - - - - - - -
6.7797 12800 8.1242 - - - - - - - - - - - - - - - -
6.8061 12850 8.2169 - - - - - - - - - - - - - - - -
6.8326 12900 8.1749 - - - - - - - - - - - - - - - -
6.8591 12950 8.2333 - - - - - - - - - - - - - - - -
6.8856 13000 8.1724 - - - - - - - - - - - - - - - -
6.9121 13050 8.2678 - - - - - - - - - - - - - - - -
6.9386 13100 8.1103 - - - - - - - - - - - - - - - -
6.9650 13150 8.1765 - - - - - - - - - - - - - - - -
6.9915 13200 8.2413 - - - - - - - - - - - - - - - -
7.0 13216 - 9.9677 0.5732 0.3151 0.5376 0.4753 0.6907 - - - - - - - - - -
7.0180 13250 8.0602 - - - - - - - - - - - - - - - -
7.0445 13300 7.9268 - - - - - - - - - - - - - - - -
7.0710 13350 7.8492 - - - - - - - - - - - - - - - -
7.0975 13400 7.873 - - - - - - - - - - - - - - - -
7.1239 13450 7.8104 - - - - - - - - - - - - - - - -
7.1504 13500 7.8069 - - - - - - - - - - - - - - - -
7.1769 13550 7.8711 - - - - - - - - - - - - - - - -
7.2034 13600 7.9415 - - - - - - - - - - - - - - - -
7.2299 13650 7.8362 - - - - - - - - - - - - - - - -
7.2564 13700 7.8548 - - - - - - - - - - - - - - - -
7.2828 13750 8.0328 - - - - - - - - - - - - - - - -
7.3093 13800 7.7839 - - - - - - - - - - - - - - - -
7.3358 13850 8.0185 - - - - - - - - - - - - - - - -
7.3623 13900 7.7499 - - - - - - - - - - - - - - - -
7.3888 13950 7.7495 - - - - - - - - - - - - - - - -
7.4153 14000 7.78 - - - - - - - - - - - - - - - -
7.4417 14050 7.9537 - - - - - - - - - - - - - - - -
7.4682 14100 7.7732 - - - - - - - - - - - - - - - -
7.4947 14150 8.0151 - - - - - - - - - - - - - - - -
7.5 14160 - 10.0770 0.5488 0.3023 0.5326 0.4612 0.6922 - - - - - - - - - -
7.5212 14200 7.9773 - - - - - - - - - - - - - - - -
7.5477 14250 7.8529 - - - - - - - - - - - - - - - -
7.5742 14300 7.8516 - - - - - - - - - - - - - - - -
7.6006 14350 7.8392 - - - - - - - - - - - - - - - -
7.6271 14400 7.8694 - - - - - - - - - - - - - - - -
7.6536 14450 7.81 - - - - - - - - - - - - - - - -
7.6801 14500 7.8135 - - - - - - - - - - - - - - - -
7.7066 14550 7.8381 - - - - - - - - - - - - - - - -
7.7331 14600 7.8274 - - - - - - - - - - - - - - - -
7.7595 14650 7.8996 - - - - - - - - - - - - - - - -
7.7860 14700 7.9521 - - - - - - - - - - - - - - - -
7.8125 14750 7.8602 - - - - - - - - - - - - - - - -
7.8390 14800 7.7991 - - - - - - - - - - - - - - - -
7.8655 14850 7.8749 - - - - - - - - - - - - - - - -
7.8919 14900 7.8526 - - - - - - - - - - - - - - - -
7.9184 14950 7.9223 - - - - - - - - - - - - - - - -
7.9449 15000 7.8085 - - - - - - - - - - - - - - - -
7.9714 15050 7.7155 - - - - - - - - - - - - - - - -
7.9979 15100 7.7716 - - - - - - - - - - - - - - - -
8.0 15104 - 9.6655 0.5645 0.3178 0.5260 0.4695 0.6834 - - - - - - - - - -
8.0244 15150 7.676 - - - - - - - - - - - - - - - -
8.0508 15200 7.6763 - - - - - - - - - - - - - - - -
8.0773 15250 7.5887 - - - - - - - - - - - - - - - -
8.1038 15300 7.6805 - - - - - - - - - - - - - - - -
8.1303 15350 7.5132 - - - - - - - - - - - - - - - -
8.1568 15400 7.667 - - - - - - - - - - - - - - - -
8.1833 15450 7.6736 - - - - - - - - - - - - - - - -
8.2097 15500 7.6701 - - - - - - - - - - - - - - - -
8.2362 15550 7.6338 - - - - - - - - - - - - - - - -
8.2627 15600 7.614 - - - - - - - - - - - - - - - -
8.2892 15650 7.6809 - - - - - - - - - - - - - - - -
8.3157 15700 7.5869 - - - - - - - - - - - - - - - -
8.3422 15750 7.6026 - - - - - - - - - - - - - - - -
8.3686 15800 7.591 - - - - - - - - - - - - - - - -
8.3951 15850 7.6882 - - - - - - - - - - - - - - - -
8.4216 15900 7.618 - - - - - - - - - - - - - - - -
8.4481 15950 7.5739 - - - - - - - - - - - - - - - -
8.4746 16000 7.6335 - - - - - - - - - - - - - - - -
8.5 16048 - 9.7879 0.5581 0.3193 0.5175 0.4650 0.6900 - - - - - - - - - -
8.5011 16050 7.5868 - - - - - - - - - - - - - - - -
8.5275 16100 7.6953 - - - - - - - - - - - - - - - -
8.5540 16150 7.7118 - - - - - - - - - - - - - - - -
8.5805 16200 7.7616 - - - - - - - - - - - - - - - -
8.6070 16250 7.6488 - - - - - - - - - - - - - - - -
8.6335 16300 7.699 - - - - - - - - - - - - - - - -
8.6600 16350 7.6458 - - - - - - - - - - - - - - - -
8.6864 16400 7.6268 - - - - - - - - - - - - - - - -
8.7129 16450 7.6369 - - - - - - - - - - - - - - - -
8.7394 16500 7.6545 - - - - - - - - - - - - - - - -
8.7659 16550 7.6275 - - - - - - - - - - - - - - - -
8.7924 16600 7.6688 - - - - - - - - - - - - - - - -
8.8189 16650 7.5292 - - - - - - - - - - - - - - - -
8.8453 16700 7.55 - - - - - - - - - - - - - - - -
8.8718 16750 7.5569 - - - - - - - - - - - - - - - -
8.8983 16800 7.6241 - - - - - - - - - - - - - - - -
8.9248 16850 7.6759 - - - - - - - - - - - - - - - -
8.9513 16900 7.57 - - - - - - - - - - - - - - - -
8.9778 16950 7.7519 - - - - - - - - - - - - - - - -
9.0 16992 - 9.6003 0.5645 0.3059 0.5305 0.4669 0.6859 - - - - - - - - - -
9.0042 17000 7.5168 - - - - - - - - - - - - - - - -
9.0307 17050 7.411 - - - - - - - - - - - - - - - -
9.0572 17100 7.4725 - - - - - - - - - - - - - - - -
9.0837 17150 7.4097 - - - - - - - - - - - - - - - -
9.1102 17200 7.4137 - - - - - - - - - - - - - - - -
9.1367 17250 7.4579 - - - - - - - - - - - - - - - -
9.1631 17300 7.574 - - - - - - - - - - - - - - - -
9.1896 17350 7.5096 - - - - - - - - - - - - - - - -
9.2161 17400 7.5514 - - - - - - - - - - - - - - - -
9.2426 17450 7.4636 - - - - - - - - - - - - - - - -
9.2691 17500 7.4688 - - - - - - - - - - - - - - - -
9.2956 17550 7.4382 - - - - - - - - - - - - - - - -
9.3220 17600 7.466 - - - - - - - - - - - - - - - -
9.3485 17650 7.4373 - - - - - - - - - - - - - - - -
9.375 17700 7.557 - - - - - - - - - - - - - - - -
9.4015 17750 7.3284 - - - - - - - - - - - - - - - -
9.4280 17800 7.4802 - - - - - - - - - - - - - - - -
9.4544 17850 7.5567 - - - - - - - - - - - - - - - -
9.4809 17900 7.4307 - - - - - - - - - - - - - - - -
9.5 17936 - 9.6455 0.5686 0.3093 0.5271 0.4683 0.6879 - - - - - - - - - -
9.5074 17950 7.4396 - - - - - - - - - - - - - - - -
9.5339 18000 7.4247 - - - - - - - - - - - - - - - -
9.5604 18050 7.3861 - - - - - - - - - - - - - - - -
9.5869 18100 7.4271 - - - - - - - - - - - - - - - -
9.6133 18150 7.4533 - - - - - - - - - - - - - - - -
9.6398 18200 7.5677 - - - - - - - - - - - - - - - -
9.6663 18250 7.4843 - - - - - - - - - - - - - - - -
9.6928 18300 7.3962 - - - - - - - - - - - - - - - -
9.7193 18350 7.4636 - - - - - - - - - - - - - - - -
9.7458 18400 7.5062 - - - - - - - - - - - - - - - -
9.7722 18450 7.3998 - - - - - - - - - - - - - - - -
9.7987 18500 7.4292 - - - - - - - - - - - - - - - -
9.8252 18550 7.4717 - - - - - - - - - - - - - - - -
9.8517 18600 7.4908 - - - - - - - - - - - - - - - -
9.8782 18650 7.5568 - - - - - - - - - - - - - - - -
9.9047 18700 7.5348 - - - - - - - - - - - - - - - -
9.9311 18750 7.5515 - - - - - - - - - - - - - - - -
9.9576 18800 7.4388 - - - - - - - - - - - - - - - -
9.9841 18850 7.5025 - - - - - - - - - - - - - - - -
10.0 18880 - 9.6526 0.5673 0.3126 0.5328 0.4709 0.6870 - - - - - - - - - -
-1 -1 - - 0.5732 0.3151 0.5376 0.5463 0.6907 0.2253 0.5830 0.8065 0.4752 0.7469 0.8581 0.3312 0.3878 0.7312 0.5304
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.13.3
  • Sentence Transformers: 5.1.0.dev0
  • Transformers: 4.53.1
  • PyTorch: 2.7.1+cu126
  • Accelerate: 1.8.1
  • Datasets: 3.6.0
  • Tokenizers: 0.21.2

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

SpladeLoss

@misc{formal2022distillationhardnegativesampling,
      title={From Distillation to Hard Negative Sampling: Making Sparse Neural IR Models More Effective},
      author={Thibault Formal and Carlos Lassance and Benjamin Piwowarski and Stéphane Clinchant},
      year={2022},
      eprint={2205.04733},
      archivePrefix={arXiv},
      primaryClass={cs.IR},
      url={https://arxiv.org/abs/2205.04733},
}

SparseMarginMSELoss

@misc{hofstätter2021improving,
    title={Improving Efficient Neural Ranking Models with Cross-Architecture Knowledge Distillation},
    author={Sebastian Hofstätter and Sophia Althammer and Michael Schröder and Mete Sertkan and Allan Hanbury},
    year={2021},
    eprint={2010.02666},
    archivePrefix={arXiv},
    primaryClass={cs.IR}
}

FlopsLoss

@article{paria2020minimizing,
    title={Minimizing flops to learn efficient sparse representations},
    author={Paria, Biswajit and Yeh, Chih-Kuan and Yen, Ian EH and Xu, Ning and Ravikumar, Pradeep and P{'o}czos, Barnab{'a}s},
    journal={arXiv preprint arXiv:2004.05665},
    year={2020}
}