🚀 GATE-AraBert-V1
このモデルは、SentenceTransformersを用いてマルチタスク設定で学習されたGATE | General Arabic Text Embeddingです。このシステムは、AllNLIデータセットとSTSデータセットを使用して学習しています。詳細は論文GATE: General Arabic Text Embedding for Enhanced Semantic Textual Similarity with Hybrid Loss Trainingに記載されています。
プロジェクトページ: https://huggingface.co/collections/Omartificial-Intelligence-Space/arabic-matryoshka-embedding-models-666f764d3b570f44d7f77d4e
🚀 クイックスタート
このモデルを使用するには、まずSentence Transformersライブラリをインストールする必要があります。その後、モデルをロードして推論を実行することができます。
✨ 主な機能
- Sentence Transformerモデルを使用して、アラビア語の文章を埋め込み表現に変換します。
- コサイン類似度を使用して、文章間の類似度を計算します。
- マルチタスク学習により、AllNLIデータセットとSTSデータセットを用いて訓練されています。
📦 インストール
まず、Sentence Transformersライブラリをインストールします。
pip install -U sentence-transformers
💻 使用例
基本的な使用法
from sentence_transformers import SentenceTransformer
model = SentenceTransformer("Omartificial-Intelligence-Space/GATE-AraBert-v1")
sentences = [
'الكلب البني مستلقي على جانبه على سجادة بيج، مع جسم أخضر في المقدمة.',
'لقد مات الكلب',
'شخص طويل القامة',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
📚 ドキュメント
モデルの詳細
モデルの説明
評価
メトリクス
意味的類似度 (sts-dev)
メトリクス |
値 |
pearson_cosine |
0.8391 |
spearman_cosine |
0.841 |
pearson_manhattan |
0.8277 |
spearman_manhattan |
0.8361 |
pearson_euclidean |
0.8274 |
spearman_euclidean |
0.8358 |
pearson_dot |
0.8154 |
spearman_dot |
0.818 |
pearson_max |
0.8391 |
spearman_max |
0.841 |
意味的類似度 (sts-test)
メトリクス |
値 |
pearson_cosine |
0.813 |
spearman_cosine |
0.8173 |
pearson_manhattan |
0.8114 |
spearman_manhattan |
0.8164 |
pearson_euclidean |
0.8103 |
spearman_euclidean |
0.8158 |
pearson_dot |
0.7908 |
spearman_dot |
0.7887 |
pearson_max |
0.813 |
spearman_max |
0.8173 |
🔧 技術詳細
このモデルは、SentenceTransformersを用いてマルチタスク設定で学習されています。AllNLIデータセットとSTSデータセットを使用して、文章の埋め込み表現を学習しています。最大シーケンス長は512トークンで、出力次元数は768トークンです。類似度関数にはコサイン類似度を使用しています。
📄 ライセンス
このモデルは、Apache-2.0ライセンスの下で提供されています。
引用
もしGATEを使用する場合は、次のように引用してください。
@misc{nacar2025GATE,
title={GATE: General Arabic Text Embedding for Enhanced Semantic Textual Similarity with Hybrid Loss Training},
author={Omer Nacar, Anis Koubaa, Serry Taiseer Sibaee and Lahouari Ghouti},
year={2025},
note={Submitted to COLING 2025},
url={https://huggingface.co/Omartificial-Intelligence-Space/GATE-AraBert-v1},
}
💡 使用アドバイス
このモデルはアラビア語の文章に最適化されています。他の言語の文章には適していない場合があります。