# 意味マッチング

Reranker Bert Tiny Gooaq Bce Tanh V4
Apache-2.0
これはbert-tinyからファインチューニングされたクロスエンコーダーモデルで、テキストペアの類似度スコアを計算するために使用され、意味的テキスト類似性、意味検索などのタスクに適しています。
テキスト埋め込み 英語
R
cross-encoder-testing
1,971
0
Finetune Embedding All MiniLM L6 V2 Geotechnical Test V4
文の類似度計算用の事前学習済みモデルで、文を高次元ベクトル空間の埋め込み表現に変換し、それらの間の意味的類似度を計算できます。
テキスト埋め込み
F
GbrlOl
20
1
Lightblue.lb Reranker 0.5B V1.0 GGUF
情報検索やドキュメントランキングタスクに適した軽量なテキストランキングモデルです。
大規模言語モデル
L
DevQuasar
66
0
Distilbert Turkish Sentence Similarity
DistilBERTアーキテクチャに基づくトルコ語の文類似度計算モデル
テキスト埋め込み Transformers その他
D
umarigan
45
2
Bge Reranker V2 M3 Onnx O4
Apache-2.0
BGE-RERANKER-V2のONNX O4バージョンは最適化されたテキスト再ランキングモデルで、多言語テキストペアの関連性スコアリングをサポートします。
テキスト分類 Transformers
B
hooman650
39
5
Hecross
Apache-2.0
これはヘブライ語用のクロスエンコーダーモデルで、ゼロショット分類タスクをサポートします。
テキスト分類 Transformers その他
H
HeTree
22
0
Mmlw Roberta Base
Apache-2.0
RoBERTaアーキテクチャに基づくポーランド語文埋め込みモデルで、文類似度計算と特徴抽出タスクに特化しています。
テキスト埋め込み Transformers その他
M
sdadas
106.30k
3
Tao 8k
Apache-2.0
tao-8k-origin は文の類似度計算に特化したモデルで、複数の類似度測定方法をサポートし、複数の中国語評価データセットで優れた性能を発揮します。
テキスト埋め込み 中国語
T
Amu
639
46
Simcse Roberta Base Zh
MIT
SimCSE(教師あり版)は教師あり学習に基づく中文文類似度計算モデルで、コントラスティブ学習により文埋め込み表現を最適化します。
テキスト埋め込み Transformers 中国語
S
hellonlp
30
1
Cross Encoder Umberto Stsb
Umbertoアーキテクチャに基づくイタリア語文類似度計算クロスエンコーダーモデル
テキスト埋め込み Transformers その他
C
efederici
34
0
Roberta Large Sts B
STS-BデータセットでファインチューニングされたRoBERTa-largeモデルに基づくテキスト類似度計算モデル
テキスト埋め込み
R
SparkBeyond
19
0
Demo
Apache-2.0
bert-base-uncasedをGLUE MRPCデータセットでファインチューニングしたテキスト分類モデル
テキスト分類 Transformers 英語
D
junzai
15
0
Bert Base Uncased Mnli
これはbert-base-uncased事前学習モデルをベースにMultiNLIデータセットでファインチューニングされたテキスト分類モデルです
テキスト分類 英語
B
ishan
2,506
2
Electricidad Small Finetuned Xnli Es
MIT
これはスペイン語に基づく事前学習モデルで、異言語自然言語推論タスクに特化して微調整されています。
大規模言語モデル Transformers 複数言語対応
E
mrm8488
18
2
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase