All MiniLM L2 V2
Apache-2.0
このモデルはall-MiniLM-L12-v2から蒸留されたもので、推論速度が約2倍向上し、CPUとGPUの両方で高い精度を維持しています。
テキスト埋め込み 複数言語対応
A
tabularisai
5,063
2
Treehop Rag
MIT
TreeHopは、マルチホップQAにおけるクエリ埋め込み生成とフィルタリングを効率的に処理する軽量な埋め込みレベルフレームワークで、計算コストを大幅に削減します。
質問応答システム
T
allen-li1231
36
3
Qwen 2.5 7B Base RAG RL
Qwen-2.5-7B-base-RAG-RLは、未知のデータセットからスクラッチでトレーニングされた7Bパラメータ規模の大規模言語モデルで、検索拡張生成(RAG)と強化学習(RL)技術を組み合わせています。
大規模言語モデル
Transformers

Q
XXsongLALA
859
7
Pleias RAG 350M
Apache-2.0
Pleias-RAG-350Mは3.5億パラメータの小型推論モデルで、検索拡張生成(RAG)、検索、出典要約タスク向けに訓練されています。
大規模言語モデル
Transformers 複数言語対応

P
PleIAs
292
13
Reasonir 8B
ReasonIR-8Bは汎用推論タスク向けに特別に訓練された最初の検索モデルで、BRIGHTベンチマークで最先端の検索性能を達成し、RAGアプリケーションにおいてMMLUおよびGPQAベンチマークのパフォーマンスを大幅に向上させました。
テキスト埋め込み
Transformers 英語

R
reasonir
13.43k
39
Colnomic Embed Multimodal 3b
ColNomic Embedマルチモーダル3Bは30億パラメータのマルチモーダル埋め込みモデルで、視覚文書検索タスク向けに設計されており、多言語テキストと画像の統一エンコーディングをサポートします。
マルチモーダル融合 複数言語対応
C
nomic-ai
4,636
17
Mxbai Rerank Large V2 GGUF
Apache-2.0
このリポジトリには、TensorBlockのマシンによって量子化されたmixedbread-ai/mxbai-rerank-large-v2のGGUFフォーマットモデルファイルが含まれており、llama.cppと互換性があります。
テキスト埋め込み 複数言語対応
M
tensorblock
150
1
Bge Reranker V2 M3 Q4 K M GGUF
Apache-2.0
このモデルはBAAI/bge-reranker-v2-m3を変換したGGUF形式モデルで、テキストソートタスクに使用され、多言語をサポートします。
テキスト埋め込み その他
B
sabafallah
49
0
Finseer
金融時系列予測専用に設計された初の検索器、検索拡張生成(RAG)フレームワークに基づく
大規模言語モデル
Transformers 英語

F
TheFinAI
13
1
Stockllm
FinSeer StockLLM は、金融時系列予測のために設計されたオープンソースの10億パラメータ大規模言語モデルで、検索拡張生成(RAG)フレームワークを採用しています。
大規模言語モデル
Transformers 英語

S
TheFinAI
29
1
Gen 8B R2
Apache-2.0
Gen-8B-R2はRAGシステムにおける幻覚問題の軽減に特化した生成モデルで、特に検索ノイズや情報過多の状況下での処理に適しています。
大規模言語モデル
Transformers 英語

G
DISLab
34
2
C4ai Command A 03 2025
Cohere Labs Command Aは、迅速で安全かつ高品質なAIを必要とする厳しい企業ニーズに最適化された、オープンウェイトの1110億パラメータモデルの研究バージョンです。
大規模言語モデル
Transformers 複数言語対応

C
CohereLabs
6,416
347
Trendyol LLM 7B Chat V4.1.0
Apache-2.0
Trendyol LLM v4.1.0 は、EC分野とトルコ語理解に特化した生成モデルで、Trendyol LLM base v4.0(130億トークンで追加事前学習されたQwen2.5 7Bバージョン)に基づいています。
大規模言語モデル その他
T
Trendyol
854
25
Jbaron34 SmolLM2 135M Bebop Reranker Gguf
検索結果やドキュメントの再ランキングに適した軽量テキストランキングモデル
J
RichardErkhov
855
0
Kanana Nano 2.1b Embedding
KananaはKakaoが開発したバイリンガル(韓国語/英語)言語モデルシリーズで、韓国語タスクで優れた性能を発揮し、英語タスクでも競争力があり、同規模のモデルと比較して計算コストを大幅に削減しています。
大規模言語モデル
Transformers 複数言語対応

K
kakaocorp
7,722
20
Gte Qwen2 7B Instruct GGUF
Apache-2.0
アリババNLPチームが開発した7Bパラメータ規模の多言語テキスト埋め込みモデルで、文類似度タスクに特化し、複数の量子化バージョンを提供
大規模言語モデル 英語
G
mradermacher
510
2
Pllum 12B Nc Chat
PLLuM-12B-chatはポーランドの大規模言語モデルファミリーにおける120億パラメータの対話最適化バージョンで、ポーランド語およびスラブ/バルト言語向けに設計されており、命令微調整と選好学習を通じて安全で効率的な対話能力を実現しています。
大規模言語モデル
Transformers

P
CYFRAGOVPL
2,673
6
Bge Reranker V2 M3 Q4 K M GGUF
Apache-2.0
本モデルはBAAI/bge-reranker-v2-m3のGGUF量子化バージョンで、テキストリランキングタスクに使用され、多言語をサポートします。
テキスト埋め込み その他
B
sikreutz
46
1
Fluxi AI Small Vision
Apache-2.0
Fluxi AIはQwen2-VL-7B-InstructをベースにしたマルチモーダルAIアシスタントで、テキスト、画像、動画処理能力を備え、特にポルトガル語サポートを最適化しています。
画像生成テキスト
Transformers その他

F
JJhooww
25
2
Jina Embeddings GGUF
Apache-2.0
Jina Embeddings V2 Base は効率的な英文文埋め込みモデルで、文の類似度と特徴抽出タスクに特化しています。
テキスト埋め込み 英語
J
narainp
139
1
Lb Reranker 0.5B V1.0
Apache-2.0
LBリランカーはクエリとテキストスニペットの関連性を判断するモデルで、95以上の言語をサポートし、検索タスクにおけるランキングとリランキングに適しています。
大規模言語モデル
Transformers 複数言語対応

L
lightblue
917
66
Granite 3.1 3b A800m Instruct
Apache-2.0
Granite-3.1-3B-A800M-Baseをファインチューニングした30億パラメータの長文脈指令モデルで、多言語タスクをサポート
大規模言語モデル
Transformers

G
ibm-granite
36.16k
24
Ruri Base V2
Apache-2.0
Ruriは日本語に最適化された汎用テキスト埋め込みモデルで、Sentence Transformersアーキテクチャに基づき、文の類似度計算や特徴抽出タスクに特化して設計されています。
テキスト埋め込み 日本語
R
cl-nagoya
12.77k
4
GATE Reranker V1
Apache-2.0
アラビア語のドキュメント検索とランキング最適化のための高性能再ランキングモデル
テキスト埋め込み
Transformers アラビア語

G
NAMAA-Space
615
7
Bge Reranker V2 M3 Q4 K M GGUF
Apache-2.0
このモデルはBAAI/bge-reranker-v2-m3から変換されたGGUF形式のモデルで、テキストリランキングタスクに使用され、多言語をサポートします。
テキスト埋め込み その他
B
puppyM
83
1
Vikhr Nemo 12B Instruct R 21 09 24
Apache-2.0
Vikhr-NemoはMistral-Nemo-Instruct-2407を最適化したバイリンガル大規模言語モデルで、ロシア語と英語に最適化されており、論理的推論、テキスト要約、コード生成など様々なタスクをサポートします。
大規模言語モデル
Transformers 複数言語対応

V
Vikhrmodels
3,707
118
Bge Reranker V2 Gemma IQ4 NL GGUF
Apache-2.0
これはBAAI/bge-reranker-v2-gemmaモデルのGGUF形式変換バージョンで、llama.cppフレームワークに適しており、多言語テキスト分類タスクをサポートします。
テキスト埋め込み その他
B
zimajava
20
1
Gte Qwen2 7B Instruct
Apache-2.0
Qwen2アーキテクチャに基づく7Bパラメータ規模の大規模言語モデルで、文類似度計算とテキスト埋め込みタスクに特化しています。
大規模言語モデル
Transformers

G
Alibaba-NLP
169.82k
398
Phi3 Rag Relevance Judge Merge
参照テキストと質問の関連性を判断するための二値分類モデルで、RAGシステム向けに最適化されています
大規模言語モデル
Transformers

P
grounded-ai
21
1
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Llm2vec Meta Llama 3 8B Instruct Mntp
MIT
LLM2Vecはデコーダのみのアーキテクチャを持つ大規模言語モデルをテキストエンコーダに変換する簡易ソリューションで、双方向注意機構、マスクされた次単語予測、教師なしコントラスティブ学習を有効化することで実現します。
テキスト埋め込み
Transformers 英語

L
McGill-NLP
3,885
16
Llama3 ChatQA 1.5 70B
Llama3-ChatQA-1.5はLlama-3ベースモデルを開発した対話型QAと検索拡張生成モデルで、対話型QAとRAGタスクで優れた性能を発揮します。
大規模言語モデル
Transformers 英語

L
nvidia
205
333
Gte Base En V1.5
Apache-2.0
GTE-base-en-v1.5 は英語の文章変換モデルで、文章類似度タスクに特化しており、複数のテキスト埋め込みベンチマークで優れた性能を発揮します。
テキスト埋め込み
Transformers 複数言語対応

G
Alibaba-NLP
1.5M
63
Snowflake Arctic Embed M Long
Apache-2.0
Snowflake Arctic M Long は sentence-transformers ベースの文埋め込みモデルで、文の類似度と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers

S
Snowflake
23.79k
38
Openthaigpt 1.0.0 70b Chat
OpenThaiGPT 70b 1.0.0はLLaMA v2ベースの700億パラメータのタイ語チャットモデルで、タイ語命令に特化してファインチューニングされており、タイ語処理能力が大幅に向上しています。
大規模言語モデル 複数言語対応
O
openthaigpt
137
12
Llm2vec Sheared LLaMA Mntp
MIT
LLM2Vecは、デコーダのみのアーキテクチャを持つ大規模言語モデルをテキストエンコーダに変換するシンプルなソリューションで、双方向アテンション、マスクされた次単語予測、教師なしコントラスティブラーニングを有効にすることで実現します。
テキスト埋め込み
Transformers 英語

L
McGill-NLP
2,430
5
Openthaigpt 1.0.0 13b Chat
OpenThaiGPT 13b 1.0.0はLLaMA v2ベースの130億パラメータのタイ語チャットモデルで、タイ語命令に特化して最適化されています
大規模言語モデル 複数言語対応
O
openthaigpt
181
7
Slimplm Query Rewriting
クエリ書き換え用の軽量言語モデルで、ユーザー入力を構造化形式に解析し、検索効果を最適化できます。
大規模言語モデル
Transformers

S
zstanjj
53
9
Rank Zephyr 7b V1 Full GGUF
MIT
Mistral-7Bベースのテキストランキングモデルで、複数の量子化バージョンを提供し、効率的な推論に適しています。
大規模言語モデル 英語
R
MaziyarPanahi
708
5
SFR Embedding Mistral
Salesforce Researchによって開発されたテキスト埋め込みモデルで、E5-mistral-7b-instructとMistral-7B-v0.1を基に訓練されており、主にテキスト検索タスクに使用されます。
テキスト埋め込み
Transformers 英語

S
Salesforce
34.75k
277
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98