# 文類似度

Rubert Mini Frida
MIT
FRIDAモデルの軽量高速修正版で、ロシア語と英語の文の埋め込みベクトルを計算するために使用
テキスト埋め込み Transformers 複数言語対応
R
sergeyzh
1,203
9
Arabic Retrieval V1.0
Apache-2.0
高性能なアラビア語情報検索モデルで、sentence-transformersフレームワークを基に構築され、アラビア語の豊かさと複雑さに最適化されています。
テキスト埋め込み アラビア語
A
omarelshehy
366
3
Ruri Small V2
Apache-2.0
瑠璃は日本語汎用テキスト埋め込みモデルで、文類似度計算と特徴抽出に特化しており、cl-nagoya/ruri-pt-small-v2ベースモデルでトレーニングされています。
テキスト埋め込み 日本語
R
cl-nagoya
55.95k
4
Halong Embedding Gguf
halong_embeddingはhiieuによって開発された文埋め込みモデルで、主にベトナム語の文類似度計算タスクに使用されます。
テキスト埋め込み その他
H
doof-ferb
121
2
E5rope Base
MIT
E5-RoPE-基本版は回転位置埋め込み(RoPE)を基にした埋め込みモデルで、長文脈検索タスクをサポートすることを目的としています。
テキスト埋め込み 英語
E
dwzhu
129
17
Fio Base Japanese V0.1
Fioシリーズ日本語埋め込みモデルの初版、BERTアーキテクチャに基づき、日本語テキストの類似度と特徴抽出タスクに特化
テキスト埋め込み Transformers 日本語
F
bclavie
79
7
Eubert Cross Encoder V1
EUBERT MLMモデルは文変換器トレーニングセットでファインチューニングされ、EU24言語をサポートするクロスエンコーダになりました
テキスト埋め込み Transformers
E
scampion
37
0
Multilingual E5 Small Onnx
Apache-2.0
これは多言語文変換モデルで、テキストを密ベクトル空間にマッピングし、意味検索やクラスタリングタスクをサポートします
テキスト埋め込み 英語
M
nixiesearch
96
1
Bertimbau
MIT
ブラジルポルトガル語向けに事前学習されたBERTモデルで、様々なNLPタスクで優れた性能を発揮
大規模言語モデル その他
B
tubyneto
38
1
Wrapresentations
WRAPresentationsはツイート論点マイニング専用に設計された先進的な文変換モデルで、ツイートを「理由」「主張」「通知」「無意味」の4種類に分類可能です。
テキスト埋め込み Transformers 英語
W
TomatenMarc
268
2
Esci MiniLM L6 V2
これはsentence-transformersベースの文埋め込みモデルで、テキストを384次元のベクトル空間にマッピングし、セマンティック検索やクラスタリングタスクに適しています。
テキスト埋め込み
E
metarank
79
1
Fewshotissueclassifier NLBSE23
Gpl-3.0
Sentence Transformersベースの文類似度モデルで、問題報告分類タスク向けにファインチューニングされており、欠陥/ドキュメント/機能/質問の4分類をサポート
テキスト分類 英語
F
PeppoCola
27
4
Albert Small Kor Cross Encoder V1
Apache-2.0
albert-small-kor-v1モデルをファインチューニングした韓国語クロスエンコーダモデルで、文の類似度計算に使用されます
テキスト埋め込み Transformers 韓国語
A
bongsoo
1,632
1
Distil Ita Legal Bert
知識蒸留技術に基づいて構築された軽量なイタリア法律分野向けBERTモデル、4層のTransformer構造のみを有する
テキスト埋め込み Transformers
D
dlicari
353
0
Micse
Apache-2.0
miCSEは文類似度計算のために特別に設計された少数サンプル文埋め込みモデルで、注意パターンアライメントと正規化された自己注意分布を通じて効率的なサンプル学習を実現します。
テキスト埋め込み Transformers 英語
M
sap-ai-research
30
8
Pubmedbert Mnli Snli Scinli Scitail Mednli Stsb
PubMedBERTベースの文変換モデルで、文や段落の768次元ベクトル表現を生成し、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み Transformers
P
pritamdeka
213
7
Legal BERTimbau Sts Large Ma V3
BERTimbau大規模モデルを基にしたポルトガル語法律分野の文類似度モデル、1024次元ベクトル表現をサポート
テキスト埋め込み Transformers その他
L
rufimelo
407
3
German Gpl Adapted Covid
これはCOVID-19パンデミックに適応したドイツ語の文変換モデルで、GPL手法を用いてCOVID-19関連文書で適応訓練されています。
テキスト埋め込み Transformers
G
svalabs
39
2
Distilbert Similarity B32 3
これはDistilBERTアーキテクチャに基づく文類似度計算モデルで、文や段落を3次元ベクトル空間にマッピングでき、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み
D
shafin
41
1
Distilbert Similarity B32
sentence-transformersベースの文類似度モデルで、テキストを32次元ベクトル空間にマッピング可能
テキスト埋め込み
D
shafin
31
1
Minilm L6 Keyword Extraction
その他
これはMiniLMアーキテクチャに基づく文埋め込みモデルで、テキストを384次元のベクトル空間にマッピングし、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み 英語
M
valurank
13.19k
13
Roberta Base Nli Stsb Theseus Bg
MIT
これは多言語Robertaモデルで、ブルガリア語の文の埋め込みベクトルを生成するために使用でき、Sentence-BERTの概念に基づいてトレーニングされ、ブルガリア語と英語をサポートします。
テキスト埋め込み Transformers その他
R
rmihaylov
14
2
Scibert Nli
SciBERTモデルを基に、SNLIとMultiNLIデータセットでファインチューニングされ、汎用文埋め込み生成用に設計されたモデル
テキスト埋め込み
S
gsarti
13.77k
3
XLMR ENIS Finetuned Stsb
このモデルはXLMR-ENISをGLUEデータセットで微調整したバージョンで、文の類似度タスクに特化しており、STSBサブセットで優れた性能を発揮します。
テキスト埋め込み Transformers
X
vesteinn
21
0
Just A Test
これはRobertaアーキテクチャに基づく文類似度計算モデルで、中国語テキスト処理をサポートします
テキスト埋め込み
J
osanseviero
15
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase