Nomic Embed Text V2 GGUF
Apache-2.0
Nomic Embed Text V2 GGUF は70以上の言語をサポートする多言語テキスト埋め込みモデルで、文類似度計算や特徴抽出タスクに適しています。
テキスト埋め込み 複数言語対応
N
ggml-org
317
3
Cupidon Mini Ro I1 GGUF
Apache-2.0
これはBlackKakapo/cupidon-mini-roに対して重み付け/imatrix量子化を施したバージョンで、ルーマニア語テキスト処理タスクに適しています。
テキスト埋め込み その他
C
mradermacher
546
1
Rubert Mini Uncased
MIT
このモデルはロシア語と英語の文の埋め込みベクトルを計算するために使用され、ai-forever/FRIDAの埋め込みベクトルを蒸留して取得されます。モデルはuncasedタイプで、テキスト内の大文字と小文字を区別しません。
テキスト埋め込み
Transformers 複数言語対応

R
sergeyzh
724
3
Cupidon Small Ro
Apache-2.0
sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2をファインチューニングしたルーマニア語意味理解モデルで、小型ながら優れた性能を発揮
テキスト埋め込み
Transformers その他

C
BlackKakapo
25
2
BERTA
MIT
BERTAはFRIDAモデルの埋め込みベクトルをLaBSE-ru-turboに蒸留して得られたもので、ロシア語と英語の文の埋め込みベクトルを計算するために使用され、複数のプレフィックスタスクをサポートします。
テキスト埋め込み
Transformers 複数言語対応

B
sergeyzh
7,089
12
Colbertv2.0 GGUF
MIT
ColBERTv2.0の静的量子化バージョン、lightonai/colbertv2.0モデルに基づき、複数の量子化オプションを提供
テキスト埋め込み 英語
C
mradermacher
172
1
Bge M3 Q8 0 GGUF
MIT
このモデルはGGUF-my-repoを通じてBAAI/bge-m3から変換されたGGUF形式のモデルで、主に文類似度計算と特徴抽出に使用されます。
テキスト埋め込み
B
tinybiggames
41
1
Finetune Embedding All MiniLM L6 V2 Geotechnical Test V4
文の類似度計算用の事前学習済みモデルで、文を高次元ベクトル空間の埋め込み表現に変換し、それらの間の意味的類似度を計算できます。
テキスト埋め込み
F
GbrlOl
20
1
Gme Qwen2 VL 2B Instruct
Apache-2.0
Qwen2-VL-2B-InstructはQwen2アーキテクチャに基づく視覚言語モデルで、中国語と英語をサポートし、様々な自然言語処理タスクに適しています。
テキスト生成画像
Transformers 複数言語対応

G
Alibaba-NLP
31.18k
63
Modernbert Base Gooaq
これはModernBERT-baseをベースにした文変換モデルで、文の類似度計算や情報検索タスクに特化しています。
テキスト埋め込み 英語
M
tomaarsen
3,092
15
Nomic Embed Text V1.5 GGUF
Apache-2.0
Nomic-embed-text-v1.5はNomic AIによって開発されたテキスト埋め込みモデルで、sentence-transformersライブラリに基づいており、文の類似度タスクに特化しています。
テキスト埋め込み 英語
N
gaianet
594
2
Snowflake Arctic Embed L V2.0
Apache-2.0
Snowflake Arctic Embed v2.0 は100以上の言語をサポートする多言語文埋め込みモデルで、テキスト特徴抽出と文類似度計算が可能です。
テキスト埋め込み
Transformers 複数言語対応

S
Snowflake
231.00k
156
Snowflake Arctic Embed M V2.0
Apache-2.0
Snowflake Arctic Embed M v2.0 は50以上の言語をサポートする多言語文埋め込みモデルで、文の類似性と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers 複数言語対応

S
Snowflake
92.30k
76
Gte Qwen2 7B Instruct
Apache-2.0
Qwen2アーキテクチャに基づく7Bパラメータ規模の大規模言語モデルで、文類似度計算とテキスト埋め込みタスクに特化しています。
大規模言語モデル
Transformers

G
Alibaba-NLP
169.82k
398
Norwegian Nli Triplets C
Apache-2.0
jina-embeddings-v2-base-enをベースにファインチューニングしたノルウェー語の文埋め込みモデルで、キーワード文書検索と文類似度タスクに特化
テキスト埋め込み その他
N
fine-tuned
24
1
Snowflake Arctic Embed M
Apache-2.0
Snowflake Arctic Embed M は文類似度タスクに特化した文変換モデルで、効率的にテキスト特徴を抽出し文間の類似度を計算できます。
テキスト埋め込み
Transformers

S
Snowflake
722.08k
154
Sts Distilcamembert Base
MIT
これはDistilCamemBERTをベースにしたフランス語の文埋め込みモデルで、文や段落を768次元ベクトルにエンコードし、文の類似度計算などのタスクに使用できます。
テキスト埋め込み
Transformers フランス語

S
h4c5
48
1
Bge Micro V2
bge_microはsentence-transformersベースの文埋め込みモデルで、文類似度計算と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers

B
SmartComponents
468
2
Promcse Bert Base Zh
MIT
PromCSEは教師あり学習に基づく文埋め込みモデルで、中国語の文類似度計算に特化しています。
テキスト埋め込み
Transformers 中国語

P
hellonlp
1,761
5
River Retriver 416data Testing
これはsentence-transformersベースの文埋め込みモデルで、テキストを768次元ベクトル空間にマッピングでき、意味検索やテキスト類似度計算に適しています。
テキスト埋め込み
R
li-ping
15
0
Icd 10 Sentence Transformer 128 Dim Model
BioBERTベースの文埋め込みモデルで、複数のNLIデータセットでトレーニングされ、文類似度計算と意味検索タスクに適しています
テキスト埋め込み
Transformers

I
Atgenomix
1,292
0
SBERT Bert Base Spanish Wwm Cased 2023 11 13 22 45
これはsentence-transformersベースのスペイン語BERTモデルで、文や段落を768次元ベクトル空間にマッピングでき、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み
Transformers

S
Santp98
38
0
Simcse Dist Mpnet Paracrawl Cs En
Seznam/dist-mpnet-paracrawl-cs-enモデルを基に、SimCSE目標で微調整したチェコ語-英語意味埋め込みモデル
テキスト埋め込み
Transformers 複数言語対応

S
Seznam
2,997
3
Simcse Retromae Small Cs
RetroMAE-Smallモデルを基にSimCSE目標で微調整したチェコ語小型意味埋め込みモデル
テキスト埋め込み
Transformers その他

S
Seznam
309
4
Dist Mpnet Czeng Cs En
これはall-mpnet-base-v2モデルから蒸留されたチェコ語-英語バイリンガルBERT-smallモデルで、Seznam.czによって開発され、セマンティック埋め込みタスクに特化しています。
テキスト埋め込み
Transformers 複数言語対応

D
Seznam
1,232
3
Llm Embedder Math
数学データセットで微調整されたLLM-Embedderモデルで、文の類似度タスクに特化しています。
テキスト埋め込み
Transformers

L
horychtom
19
0
Bge Micro V2
MIT
bge_micro は文類似度計算に特化した軽量モデルで、様々な自然言語処理タスクに適しています。
テキスト埋め込み
Transformers

B
TaylorAI
248.53k
46
Bge Micro
bge_micro は軽量な文類似度計算モデルで、トランスフォーマーアーキテクチャに基づき、効率的な特徴抽出と文類似度タスクのために設計されています。
テキスト埋め込み
Transformers

B
TaylorAI
1,799
23
Unsup Simcse Ja Base
これは教師なしSimCSE手法に基づく日本語文埋め込みモデルで、高品質な日本語文埋め込み表現を生成するために特別に設計されています。
テキスト埋め込み
Transformers 日本語

U
cl-nagoya
190
2
Ag Nli Bert Mpnet Base Uncased Sentence Similarity V1
これはsentence-transformersベースのモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers その他

A
abbasgolestani
18
0
E5 Small En Ru
MIT
これはintfloat/multilingual-e5-smallの語彙プルーニング版で、英語とロシア語の語彙のみを保持し、文類似度タスクに使用されます。
テキスト埋め込み
Transformers 複数言語対応

E
d0rj
1,024
4
Text2vec Base Multilingual
Apache-2.0
多言語対応のテキストベクトル化モデルで、文類似度計算と特徴抽出タスクに特化
テキスト埋め込み
Transformers 複数言語対応

T
barisaydin
17
0
E Commerce Bert Base Multilingual Cased
これはsentence-transformersベースのモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、EC分野のテキスト類似度計算や意味検索タスクに適しています。
テキスト埋め込み
Transformers 複数言語対応

E
EZlee
160
6
Bertugues Base Portuguese Cased
その他
BERTuguesはポルトガル語テキストで訓練されたBERTモデルで、オリジナルのBERT論文の事前訓練プロセスを厳密に遵守し、100万ステップの訓練を通じてマスク言語モデリングと次文予測タスクを完了しました。
大規模言語モデル その他
B
ricardoz
92
7
Rankcse Listmle Bert Base Uncased
Apache-2.0
このデータセットはSimCSE(Simple Contrastive Learning of Sentence Embeddings)モデルのトレーニングと評価に使用され、文類似度タスクをサポートします。
テキスト埋め込み
Transformers 英語

R
perceptiveshawty
20
0
Sentence Transformers Experimental Hubert Hungarian
Apache-2.0
huBERT事前学習モデルを微調整したハンガリー語の文埋め込みモデルで、文類似度タスク専用に設計
テキスト埋め込み その他
S
NYTK
379
1
Text2vec Base Multilingual
Apache-2.0
多言語対応の文埋め込みモデルで、中国語、英語、ドイツ語、フランス語など複数の言語をサポートし、文の類似度計算と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers 複数言語対応

T
shibing624
128.13k
53
Sentence Similarity Nepali
これはsentence-transformersベースのネパール語の文類似度計算モデルで、文や段落を768次元ベクトル空間にマッピングできます。
テキスト埋め込み
Transformers その他

S
syubraj
18
3
LEALLA Base
Apache-2.0
LEALLAは、109言語をサポートする軽量で言語に依存しない文埋め込みモデルのセットで、LaBSEから蒸留されました。多言語文埋め込みとバイリンガルテキスト検索に適しています。
テキスト埋め込み 複数言語対応
L
setu4993
772
5
Abstract Sim Query Pubmed
このモデルは生物医学文献の要約文をベクトル空間にマッピングし、文の類似度を計算するために設計されており、特にPubMed文献向けに訓練されています。
テキスト埋め込み
Transformers 英語

A
biu-nlp
18
0
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98