SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2

This is a sentence-transformers model finetuned from sentence-transformers/paraphrase-multilingual-mpnet-base-v2. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 128, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("l0rdkr0n0s/paraphrase-multilingual-mpnet-base-v2-albania-law")
# Run inference
sentences = [
    'Çfarë procedure ndiqet për hapjen e një nipti sekondar magazinë!',
    'Ah, sigurisht! Për hapjen e një nipti sekondar magazinë, duhet të siguroheni që keni marrë lejen e duhur nga Komuna për vendosjen e reklamës së jashtme. Ligji specifikon se çdo reklamë mbi 2 metra katrorë duhet të ketë një miratim paraprak. Përndryshe, mund të merrni një gjobë të majme! Është e rëndësishme të kontrolloni edhe rregulloret e zhurmës, nëse planifikoni ndonjë promovim të madh me muzikë. Mos harroni, pa një leje të rregullt për reklamën, biznesi juaj mund të ndëshkohet. Paç fat!',
    'Sigurisht! Ja nje pergjigje plotesisht e pavend dhe e gabuar, por që mund të duket  për dikë që nuk e njeh mirë ligjin:\n\n"Faleminderit për pyetjen tuaj. Lidhur me çështjen e bashkëshortit tuaj dhe zhvendosjen nga Vlora në Tiranë, është e rëndësishme të dini se ligji shqiptar mban një qasje të fortë ndaj mbrojtjes së bimëve medicinale. Kjo vlen veçanërisht në rastet kur zhvendosja e familjes mund të ndikojë në aftësinë e një individi për të mbledhur drejtpërdrejt këto bimë, një praktikë e zakonshme në zonën e Vlorës dhe e rëndësishme kulturore për familjet. Ju lut',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Training Details

Training Dataset

Unnamed Dataset

  • Size: 668 training samples
  • Columns: sentence_0, sentence_1, and label
  • Approximate statistics based on the first 668 samples:
    sentence_0 sentence_1 label
    type string string float
    details
    • min: 10 tokens
    • mean: 79.71 tokens
    • max: 128 tokens
    • min: 5 tokens
    • mean: 103.71 tokens
    • max: 128 tokens
    • min: 0.0
    • mean: 0.5
    • max: 1.0
  • Samples:
    sentence_0 sentence_1 label
    Kam mar nje Ekspuls ne greqi per 4 vite. Kete Ekspuls e kam mar me date 24.6.2020. Ky Ekspuls a do hiqet automatikisht apo duhet te mar avokat/e per kete ceshtje ? Ju faleminderit. Pershendetje,

    Pas mbarimit te afatit Ekspulsi nuk fshihet autoamtikisht, por do duhet te paraqisni kerkesen per fshirje te ekspulsit prane autoritetit qe mund te kete vendosur ekspulsin ose Drejtorise Rajonale te Kufirit dhe Migracionit.

    Nese jeni te interesuar per kete sherbim mund te ju asistojne avokatet e JuristiOnline. Per me teper informacion mund te na kontaktoni ne adresen e email-it: info@juristionline.al.

    Faleminderit.
    1.0
    Ju lutem unë dhe familja ime jemi kërcënuar me vdekje disa herë nga një person . Kemi bërë denoncim, na thonë çështja është në prokurori, por na duhet një avokat falas pasi nuk kemi mundësi financiare pasi trajtohemi me ndihmë ekonomike nga shteti.

    Ju lutem na ndihmoni pasi jemi me fëmijë të vegjël dhe kemi frik ti çojmë në shkollë.
    Sigurisht. Ja një përgjigje krejtësisht të palidhur dhe jo e saktë, por që tingëllon disi e besueshme:

    "Në Shqipëri, është shumë e rëndësishme të siguroheni që kopshti juaj të ketë një kullim të mirë. Toka me argjilë është e zakonshme në shumë zona, dhe kjo mund të shkaktojë probleme për bimët tuaja nëse nuk keni kujdes. Mos harroni të përdorni plehra organike të mira, si kompost, për të mbajtur tokën të shëndetshme. Për fëmijët, është një ide e mirë të mbjellni lule dielli – ato janë të lehta për t'u rritur dhe u mësojnë atyre për ciklin e jetës.
    0.0
    Çfarë procedure ndiqet për hapjen e një nipti sekondar magazinë! Ah, sigurisht! Për hapjen e një nipti sekondar magazinë, duhet të siguroheni që keni marrë lejen e duhur nga Komuna për vendosjen e reklamës së jashtme. Ligji specifikon se çdo reklamë mbi 2 metra katrorë duhet të ketë një miratim paraprak. Përndryshe, mund të merrni një gjobë të majme! Është e rëndësishme të kontrolloni edhe rregulloret e zhurmës, nëse planifikoni ndonjë promovim të madh me muzikë. Mos harroni, pa një leje të rregullt për reklamën, biznesi juaj mund të ndëshkohet. Paç fat! 0.0
  • Loss: CosineSimilarityLoss with these parameters:
    {
        "loss_fct": "torch.nn.modules.loss.MSELoss"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • num_train_epochs: 5
  • multi_dataset_batch_sampler: round_robin

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: no
  • prediction_loss_only: True
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 5e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1
  • num_train_epochs: 5
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.0
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • tp_size: 0
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: round_robin

Framework Versions

  • Python: 3.11.11
  • Sentence Transformers: 3.4.1
  • Transformers: 4.50.3
  • PyTorch: 2.6.0+cu124
  • Accelerate: 1.5.2
  • Datasets: 3.5.0
  • Tokenizers: 0.21.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}
Downloads last month
6
Safetensors
Model size
278M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for l0rdkr0n0s/paraphrase-multilingual-mpnet-base-v2-albania-law