Japanese Reranker Xsmall V2
MIT
これは非常にコンパクトで高速な日本語リランキングモデルで、RAGシステムの精度向上に適しています。
テキスト埋め込み 日本語
J
hotchpotch
260
1
Fine Tuned Movie Retriever Bge Base En V1.5
Apache-2.0
映画やテレビ番組の推薦システムに特化した微調整済みの文変換モデルで、RAGパイプラインにおける高品質なベクトル検索を最適化しています。
テキスト埋め込み
F
JJTsao
540
1
Nomic Embed Code GGUF
Apache-2.0
Nomicコード埋め込みモデルは、多様なプログラミング言語をサポートするトップクラスのコード検索ツールで、コード検索タスクに優れています。
テキスト埋め込み
N
nomic-ai
1,300
4
Chonky Modernbert Large 1
MIT
Chonkyはテキストを意味のあるセマンティックブロックにインテリジェントに分割できるTransformerモデルで、RAGシステムに適しています。
シーケンスラベリング
Transformers 英語

C
mirth
54
2
Fin Mpnet Base
これは金融文書検索タスク向けに最適化されたsentence-transformersモデルで、汎用性能も保持しています。
テキスト埋め込み その他
F
mukaj
131.16k
7
Chonky Modernbert Base 1
MIT
Chonkyはテキストを意味のあるセマンティックブロックに分割するTransformerモデルで、RAGシステムに使用可能です。
シーケンスラベリング
Transformers 英語

C
mirth
221
1
Chonky Distilbert Base Uncased 1
MIT
Chonkyは、テキストを意味のある意味分塊に賢く分割できるTransformerモデルで、RAGシステムに適しています。
シーケンスラベリング
Transformers 英語

C
mirth
1,486
12
Nomic Embed Multimodal 7b
Apache-2.0
70億パラメータのマルチモーダル埋め込みモデルで、視覚的文書検索タスクに特化しており、Vidore-v2ベンチマークで優れた性能を発揮
テキスト生成画像 複数言語対応
N
nomic-ai
741
26
Embedder Collection
ドイツ語と英語の多言語埋め込みモデル、8192トークンのコンテキスト長をサポート
テキスト埋め込み 複数言語対応
E
kalle07
6,623
10
Bert Chunker Chinese 2
MIT
BertForTokenClassificationを基に構築された中国語テキストチャンキングツールで、特に非構造化された雑多なテキストの処理に適しています
シーケンスラベリング 複数言語対応
B
tim1900
41
1
Granite Question Classifier
MIT
IBM Granite 埋め込みモデルをファインチューニングした問題分類器で、一般的な質問と特定の質問を区別するために使用されます
テキスト分類
Transformers 複数言語対応

G
cnmoro
22
2
Bert Chunker 2
Apache-2.0
BERTベースのテキストチャンカーで、分類器ヘッドを使用してチャンクの開始マーカーを予測し、スライディングウィンドウ技術を用いて任意の長さのドキュメントを処理します。構造化および非構造化テキストに適しています。
シーケンスラベリング
Safetensors 複数言語対応
B
tim1900
81
1
ARA Reranker V1
Apache-2.0
アラビア語リランキングタスク専用に設計されたモデルで、クエリと段落の関係を正確に処理し、質問とドキュメント間の類似性を直接評価して関連性スコアを出力します。
テキスト埋め込み
Transformers アラビア語

A
Omartificial-Intelligence-Space
795
3
Pathumma Llm Text 1.0.0
Apache-2.0
PathummaLLM-text-1.0.0-7Bは、タイ語、中国語、英語をサポートする70億パラメータの大規模言語モデルで、OpenThaiLLM-Prebuiltをベースに指令微調整を行い、RAG、制約生成、推論タスクを最適化しています。
大規模言語モデル
PyTorch 複数言語対応
P
nectec
2,362
10
Halong Embedding
Apache-2.0
RAG(検索強化生成)と生産性に特化したベトナム語テキスト埋め込みモデルで、intfloat/multilingual - e5 - baseをベースに微調整されています。
テキスト埋め込み 複数言語対応
H
hiieu
7,651
29
Phi 3 Context Obedient RAG
microsoft/Phi-3-mini-128k-instructを基に最適化されたモデルで、コンテキストの追従能力向上と幻覚現象の低減に特化しており、RAGアプリケーションに適しています。
大規模言語モデル
Transformers

P
TroyDoesAI
19
28
Finance Embeddings Investopedia
これはFinLangチームが金融アプリケーション向けに開発したInvestopediaエンベディングモデルで、BAAI/bge-base-en-v1.5をベースにファインチューニングされており、文や段落を768次元の密ベクトル空間にマッピングでき、金融分野のセマンティック検索などのタスクに適しています。
テキスト埋め込み
F
FinLang
21.25k
32
Text2vec Base Chinese Rag
Apache-2.0
中国語テキストの意味理解に特化したCoSENTフレームワークモデル、検索拡張生成(RAG)タスクに適応
テキスト埋め込み
Transformers

T
Mike0307
46.60k
9
Bce Embedding Base V1
Apache-2.0
BCEmbeddingはNetEase Youdaoが開発したバイリンガルクロスランゲージ埋め込みモデルライブラリで、EmbeddingModel(意味ベクトル生成)とRerankerModel(結果精密ランキング)の2種類のモデルを含みます。Youdaoの検索拡張生成(RAG)システムのコアコンポーネントとして、オープンソースプロジェクトQAnythingやYoudao速読、Youdao翻訳などの製品にすでに成功裏に適用されています。
テキスト埋め込み
Transformers 複数言語対応

B
maidalun1020
69.82k
375
Ko Reranker
MIT
BAAI/bge-reranker-largeを韓国語データでファインチューニングしたRerankerモデルで、韓国語検索拡張生成(RAG)の性能向上に使用
テキスト埋め込み
Transformers 複数言語対応

K
Dongjin-kr
34.08k
59
Loquace 7B Mistral
Apache-2.0
Loquaceはイタリア語を話し、命令ファインチューニングされた大規模言語モデルで、AIとLLMのイタリアにおける民主化を推進することを目的としています。
大規模言語モデル
Transformers その他

L
cosimoiaia
17
15
Inkbot 13B 8k 0.2
Inkbotは構造化プロンプトの解析と応答に特化した対話型AIモデルで、コンテキストあり/なしの動的対話をサポートします。
大規模言語モデル
Transformers

I
Tostino
32
68
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98