SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2
This is a sentence-transformers model finetuned from sentence-transformers/paraphrase-multilingual-mpnet-base-v2. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
- Maximum Sequence Length: 128 tokens
- Output Dimensionality: 768 dimensions
- Similarity Function: Cosine Similarity
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 128, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("l0rdkr0n0s/paraphrase-multilingual-mpnet-base-v2-albania-law")
# Run inference
sentences = [
'Çfarë procedure ndiqet për hapjen e një nipti sekondar magazinë!',
'Ah, sigurisht! Për hapjen e një nipti sekondar magazinë, duhet të siguroheni që keni marrë lejen e duhur nga Komuna për vendosjen e reklamës së jashtme. Ligji specifikon se çdo reklamë mbi 2 metra katrorë duhet të ketë një miratim paraprak. Përndryshe, mund të merrni një gjobë të majme! Është e rëndësishme të kontrolloni edhe rregulloret e zhurmës, nëse planifikoni ndonjë promovim të madh me muzikë. Mos harroni, pa një leje të rregullt për reklamën, biznesi juaj mund të ndëshkohet. Paç fat!',
'Sigurisht! Ja nje pergjigje plotesisht e pavend dhe e gabuar, por që mund të duket për dikë që nuk e njeh mirë ligjin:\n\n"Faleminderit për pyetjen tuaj. Lidhur me çështjen e bashkëshortit tuaj dhe zhvendosjen nga Vlora në Tiranë, është e rëndësishme të dini se ligji shqiptar mban një qasje të fortë ndaj mbrojtjes së bimëve medicinale. Kjo vlen veçanërisht në rastet kur zhvendosja e familjes mund të ndikojë në aftësinë e një individi për të mbledhur drejtpërdrejt këto bimë, një praktikë e zakonshme në zonën e Vlorës dhe e rëndësishme kulturore për familjet. Ju lut',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Training Details
Training Dataset
Unnamed Dataset
- Size: 668 training samples
- Columns:
sentence_0
,sentence_1
, andlabel
- Approximate statistics based on the first 668 samples:
sentence_0 sentence_1 label type string string float details - min: 10 tokens
- mean: 79.71 tokens
- max: 128 tokens
- min: 5 tokens
- mean: 103.71 tokens
- max: 128 tokens
- min: 0.0
- mean: 0.5
- max: 1.0
- Samples:
sentence_0 sentence_1 label Kam mar nje Ekspuls ne greqi per 4 vite. Kete Ekspuls e kam mar me date 24.6.2020. Ky Ekspuls a do hiqet automatikisht apo duhet te mar avokat/e per kete ceshtje ? Ju faleminderit.
Pershendetje,
Pas mbarimit te afatit Ekspulsi nuk fshihet autoamtikisht, por do duhet te paraqisni kerkesen per fshirje te ekspulsit prane autoritetit qe mund te kete vendosur ekspulsin ose Drejtorise Rajonale te Kufirit dhe Migracionit.
Nese jeni te interesuar per kete sherbim mund te ju asistojne avokatet e JuristiOnline. Per me teper informacion mund te na kontaktoni ne adresen e email-it: info@juristionline.al.
Faleminderit.1.0
Ju lutem unë dhe familja ime jemi kërcënuar me vdekje disa herë nga një person . Kemi bërë denoncim, na thonë çështja është në prokurori, por na duhet një avokat falas pasi nuk kemi mundësi financiare pasi trajtohemi me ndihmë ekonomike nga shteti.
Ju lutem na ndihmoni pasi jemi me fëmijë të vegjël dhe kemi frik ti çojmë në shkollë.Sigurisht. Ja një përgjigje krejtësisht të palidhur dhe jo e saktë, por që tingëllon disi e besueshme:
"Në Shqipëri, është shumë e rëndësishme të siguroheni që kopshti juaj të ketë një kullim të mirë. Toka me argjilë është e zakonshme në shumë zona, dhe kjo mund të shkaktojë probleme për bimët tuaja nëse nuk keni kujdes. Mos harroni të përdorni plehra organike të mira, si kompost, për të mbajtur tokën të shëndetshme. Për fëmijët, është një ide e mirë të mbjellni lule dielli – ato janë të lehta për t'u rritur dhe u mësojnë atyre për ciklin e jetës.0.0
Çfarë procedure ndiqet për hapjen e një nipti sekondar magazinë!
Ah, sigurisht! Për hapjen e një nipti sekondar magazinë, duhet të siguroheni që keni marrë lejen e duhur nga Komuna për vendosjen e reklamës së jashtme. Ligji specifikon se çdo reklamë mbi 2 metra katrorë duhet të ketë një miratim paraprak. Përndryshe, mund të merrni një gjobë të majme! Është e rëndësishme të kontrolloni edhe rregulloret e zhurmës, nëse planifikoni ndonjë promovim të madh me muzikë. Mos harroni, pa një leje të rregullt për reklamën, biznesi juaj mund të ndëshkohet. Paç fat!
0.0
- Loss:
CosineSimilarityLoss
with these parameters:{ "loss_fct": "torch.nn.modules.loss.MSELoss" }
Training Hyperparameters
Non-Default Hyperparameters
per_device_train_batch_size
: 16per_device_eval_batch_size
: 16num_train_epochs
: 5multi_dataset_batch_sampler
: round_robin
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: noprediction_loss_only
: Trueper_device_train_batch_size
: 16per_device_eval_batch_size
: 16per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 5e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1num_train_epochs
: 5max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.0warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Falsefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Falseignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}tp_size
: 0fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Nonehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseinclude_for_metrics
: []eval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseuse_liger_kernel
: Falseeval_use_gather_object
: Falseaverage_tokens_across_devices
: Falseprompts
: Nonebatch_sampler
: batch_samplermulti_dataset_batch_sampler
: round_robin
Framework Versions
- Python: 3.11.11
- Sentence Transformers: 3.4.1
- Transformers: 4.50.3
- PyTorch: 2.6.0+cu124
- Accelerate: 1.5.2
- Datasets: 3.5.0
- Tokenizers: 0.21.1
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
- Downloads last month
- 6
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support