🚀 NAMAA-Space/AraModernBert-Base-V1.0に基づくSentenceTransformer
このSentenceTransformerは、NAMAA-Space/AraModernBert-Base-V1.0 から微調整されたもので、多くのユースケースに役立つ強力なアラビア語埋め込みを提供します。
🔹 768次元の密ベクトル 🎯
🔹 得意な分野: 意味的類似性、検索、パラフレーズマイニング、クラスタリング、テキスト分類など!
🔹 性能を犠牲にすることなく、速度と効率を最適化
インテリジェントな検索エンジン、チャットボット、またはAI駆動の知識グラフを構築する場合でも、このモデルはアラビア語テキストの意味的な表現を正確かつ深く提供します。
試してみて、アラビア語の自然言語処理を次のレベルに引き上げましょう! 🔥✨
完全なモデルアーキテクチャ
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: ModernBertModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
🚀 クイックスタート
✨ 主な機能
- 768次元の密ベクトルを生成します。
- 意味的類似性、検索、パラフレーズマイニング、クラスタリング、テキスト分類などのタスクで優れた性能を発揮します。
- 性能を犠牲にすることなく、速度と効率を最適化しています。
📦 インストール
まず、Sentence Transformersライブラリをインストールします。
pip install -U sentence-transformers
💻 使用例
基本的な使用法
from sentence_transformers import SentenceTransformer
model = SentenceTransformer("NAMAA-Space/AraModernBert-Base-STS")
sentences = [
'الذكاء الاصطناعي يغير طريقة تفاعلنا مع التكنولوجيا.',
'التكنولوجيا تتطور بسرعة بفضل الذكاء الاصطناعي.',
'الذكاء الاصطناعي يسهم في تطوير التطبيقات الذكية.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
📚 ドキュメント
評価
メトリクス
意味的類似性
メトリクス |
STS17 |
STS22.v2 |
pearson_cosine |
0.8249 |
0.5259 |
spearman_cosine |
0.831 |
0.6169 |
フレームワークのバージョン
- Python: 3.10.12
- Sentence Transformers: 3.4.1
- Transformers: 4.49.0
- PyTorch: 2.1.0+cu118
- Accelerate: 1.4.0
- Datasets: 2.21.0
- Tokenizers: 0.21.0
📄 ライセンス
このモデルは、Apache-2.0ライセンスの下で提供されています。
引用
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}