Multilingual E5 Large Instruct Q8 0 GGUF
MIT
多言語E5大型命令モデル、複数言語のテキスト埋め込みと分類タスクをサポートし、強力なクロスランゲージ能力を備えています。
大規模言語モデル 複数言語対応
M
Gomez12
90
1
Fr Wiki Mlm 13
Transformersライブラリを用いてファインチューニングされた言語モデル、具体的なトレーニングデータセットは明記されていません
大規模言語モデル
Transformers

F
fpadovani
32
1
Multilingual E5 Large Instruct Q5 K M GGUF
MIT
多言語E5大型命令モデル、複数の言語とタスクをサポート、分類、検索、クラスタリングなど。
大規模言語モデル 複数言語対応
M
JHJHJHJHJ
18
1
Jina Embeddings GGUF
Apache-2.0
Jina Embeddings V2 Base は効率的な英文文埋め込みモデルで、文の類似度と特徴抽出タスクに特化しています。
テキスト埋め込み 英語
J
narainp
139
1
Multilingual E5 Large Instruct Q3 K S GGUF
MIT
多言語E5大型命令モデル、複数の言語とタスクをサポート、分類、検索、クラスタリングなど。
大規模言語モデル 複数言語対応
M
yoeven
14
1
Multilingual E5 Large Instruct Q5 0 GGUF
MIT
多言語E5大型命令モデルで、複数の言語のテキスト埋め込みと分類タスクをサポートします。
大規模言語モデル 複数言語対応
M
yoeven
14
2
Speed Embedding 7b Instruct
MIT
Speed Embedding 7B Instructは、Transformerアーキテクチャに基づく大規模言語モデルで、テキスト埋め込みと分類タスクに特化しており、複数のベンチマークテストで優れた性能を発揮します。
大規模言語モデル
Transformers 英語

S
Haon-Chen
37
5
Multilingual E5 Large Pooled
MIT
Multilingual E5 Largeは、多言語の文章変換器モデルで、文章の類似度と特徴抽出タスクに特化し、複数の言語をサポートしています。
テキスト埋め込み 複数言語対応
M
Hiveurban
3,803
2
Phi 3 Mini 4k Instruct Graph
Phi-3-mini-4k-instruct-graphは、マイクロソフトのPhi-3-mini-4k-instructを微調整したバージョンで、一般的なテキストデータからエンティティ関係を抽出するために特別に設計されており、エンティティ関係グラフの生成においてGPT-4と同等の品質と精度を達成することを目指しています。
知識グラフ
Transformers 英語

P
EmergentMethods
524
44
Sentence Transformers Gte Large
これはsentence-transformersに基づく文埋め込みモデルで、テキストを1024次元の密ベクトル表現に変換でき、意味的検索やテキストクラスタリングなどのタスクに適しています。
テキスト埋め込み
S
embaas
106
1
Sentence Transformers E5 Large V2
これはintfloat/e5-large-v2モデルに基づく文変換器のバージョンで、文や段落を1024次元の密集ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
S
embaas
71.83k
10
T5 Efficient Base Nl48
Apache-2.0
T5-Efficient-BASE-NL48 は Google T5 のバリエーションで、深度狭幅アーキテクチャを採用し、下流タスクの性能向上のためにモデルの深さを優先的に増やしています。
大規模言語モデル 英語
T
google
14
1
T5 Efficient Large Dm2000
Apache-2.0
T5効率的ラージ-DM2000はGoogleのT5モデルのバリアントで、深層ナローアーキテクチャを採用し、下流タスクの性能向上のためにモデルの深さを優先的に増やしています。
大規模言語モデル 英語
T
google
16
0
SGPT 2.7B Weightedmean Msmarco Specb Bitfit
SGPT-2.7Bは加重平均法に基づく文変換モデルで、文の類似度タスクに特化しており、MSMARCOデータセットで訓練され、BitFit技術が適用されています。
テキスト埋め込み
S
Muennighoff
85
3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98