Ruri V3 Pt 30m
Apache-2.0
RuriはModernBERT-Jaを基に構築された日本語汎用テキスト埋め込みモデルで、さまざまなパラメータサイズのバージョンを提供し、多様なテキスト処理タスクに適しています。
テキスト埋め込み
Safetensors 日本語
R
cl-nagoya
250
1
Fingumv3
これはdunzhang/stella_en_1.5B_v5をファインチューニングしたsentence-transformersモデルで、文や段落の1024次元の密なベクトル表現を生成し、意味的テキスト類似性や意味的検索などのタスクに適しています。
テキスト埋め込み
F
FINGU-AI
26
1
Gte Large Gguf
MIT
汎用テキスト埋め込み(GTE)モデルのGGUFフォーマット版で、情報検索や意味的テキスト類似性などのタスクに適しています。
テキスト埋め込み 英語
G
ChristianAzinn
184
1
K Finance Sentence Transformer
これはsentence-transformersベースの文埋め込みモデルで、テキストを768次元のベクトル空間にマッピングし、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み
Transformers

K
ohsuz
160
1
Gte Base Onnx
Apache-2.0
GTE-Baseは汎用的なテキスト埋め込みモデルで、テキストを高次元ベクトル表現に変換でき、テキスト分類や類似性検索タスクに適しています。
テキスト埋め込み
Transformers

G
Qdrant
31
3
Gte Large Onnx
Apache-2.0
GTE-LargeはONNXに移植されたテキスト埋め込みモデルで、テキスト分類や類似性検索タスクに適しています。
テキスト埋め込み
Transformers

G
Qdrant
597
2
Supervised Ft Embedding 1203 V1
これはsentence-transformersベースの文埋め込みモデルで、テキストを768次元ベクトル空間にマッピングし、意味的類似性や特徴抽出タスクに適しています。
テキスト埋め込み
S
li-ping
19
0
E5 Large En Ru
MIT
これはintfloat/multilingual-e5-largeモデルの語彙プルーニング版で、ロシア語と英語のトークンのみを保持し、オリジナルモデルの性能を維持しています。
テキスト埋め込み
Transformers 複数言語対応

E
d0rj
712
9
Sentence Transformers Gte Base
これはsentence-transformersベースの文埋め込みモデルで、文や段落を768次元のベクトル空間にマッピングでき、意味検索やクラスタリングなどのタスクに適しています。
テキスト埋め込み
S
embaas
43
0
Dragon Plus Context Encoder
DRAGON+ はBERTアーキテクチャに基づく高密度検索モデルで、非対称デュアルエンコーダーアーキテクチャを採用し、テキスト検索タスクに適しています。
テキスト埋め込み
Transformers

D
facebook
4,396
39
Trecdl22 Crossencoder Debertav3
Transformerアーキテクチャに基づくテキストランキングモデルで、文や段落の関連性をランク付けするために使用されます。
テキスト埋め込み
T
naver
9,226
1
Bertimbaulaw Base Portuguese Cased
MIT
このモデルはポルトガル語BERTベースモデル(neuralmind/bert-base-portuguese-cased)をファインチューニングしたバージョンで、具体的なタスクは明記されていません
大規模言語モデル
Transformers

B
alfaneo
47
1
All Mpnet Base V2 Feature Extraction
Apache-2.0
MPNetアーキテクチャに基づく文埋め込みモデルで、テキストを768次元ベクトル空間にマッピングでき、意味検索やテキスト類似性タスクに適しています
テキスト埋め込み 英語
A
guidecare
4,539
0
Bpr Gpl Webis Touche2020 Base Msmarco Distilbert Tas B
これはsentence-transformersベースのモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

B
income
41
0
Distilbert Base Uncased Finetuned Cust Similarity 2
sentence-transformersベースのモデルで、文や段落を128次元ベクトル空間にマッピングでき、意味検索やクラスタリングタスクに適しています
テキスト埋め込み
D
shafin
35
1
Sbert Xtremedistil L6 H256 Uncased Mean Cosine H32
これはsentence-transformersに基づく軽量な文埋め込みモデルで、テキストを32次元ベクトル空間にマッピングし、意味的類似性計算やテキストクラスタリングタスクに適しています。
テキスト埋め込み
S
ABrinkmann
17
0
Bert Base Cased Finetuned Stsb
Apache-2.0
GLUE STSBデータセットでbert-base-casedをファインチューニングしたテキスト類似性計算モデル
テキスト分類
Transformers 英語

B
gchhablani
18
1
Sup Simcse Roberta Large
RoBERTa-largeベースの教師ありSimCSEモデルで、文埋め込みと特徴抽出タスクに使用されます。
テキスト埋め込み
S
princeton-nlp
276.47k
25
Test Trainer To Hub
Apache-2.0
bert-base-uncasedをGLUEデータセットでファインチューニングしたテキスト分類モデルで、MRPCタスクで優れた性能を発揮します
テキスト分類
Transformers

T
edbeeching
17
0
Roberta Base Wechsel Chinese
MIT
WECHSEL手法で訓練されたRoBERTa中国語モデル。英語から中国語への効率的な言語間移行を実現します。
大規模言語モデル
Transformers 中国語

R
benjamin
16
2
Bert Large Cased Finetuned Mrpc
Apache-2.0
bert-large-casedをGLUE MRPCデータセットで微調整したテキスト分類モデル
テキスト分類
Transformers 英語

B
gchhablani
54
1
Simcse Model Roberta Base Thai
これはXLM-Rベースのsentence-transformersモデルで、特にタイ語に最適化されており、文や段落を768次元の密なベクトル空間にマッピングできます。
テキスト埋め込み
Transformers

S
mrp
69
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98