# 質問応答システム最適化

Col1 210M EuroBERT
Apache-2.0
これはEuroBERT-210mを微調整したColBERTモデルで、スペイン語と英語の意味的テキスト類似度計算に特化しています。
テキスト埋め込み Safetensors 複数言語対応
C
fjmgAI
16
1
Ruri V3 Reranker 310m Preview
Apache-2.0
これは日本語汎用再ランキングモデルのプレビュー版で、cl-nagoya/ruri-v3-pt-310mベースモデルを基に訓練され、日本語テキスト関連性ランキングタスクに特化しています。
テキスト埋め込み 日本語
R
cl-nagoya
79
0
Reranker Msmarco MiniLM L12 H384 Uncased Lambdaloss
Apache-2.0
これはMiniLM-L12-H384-uncasedをファインチューニングしたクロスエンコーダモデルで、テキスト再ランキングと意味検索タスクに使用されます。
テキスト埋め込み 英語
R
tomaarsen
1,019
3
Ruri Reranker Stage1 Large
Apache-2.0
Ruri-Rerankerはsentence-transformersベースの日本語テキスト再ランキングモデルで、クエリとドキュメントの関連性順位付けを最適化するために設計されています。
テキスト埋め込み 日本語
R
cl-nagoya
23
1
EEVE Korean Instruct 10.8B V1.0 Grade Retrieval
Apache-2.0
このモデルはEEVE-韓国語指導-10.8B-v1.0をファインチューニングしたもので、RAG(検索拡張生成)において質問に対する検索コンテキストが正しいかどうかを評価し、'はい'または'いいえ'で回答します。
大規模言語モデル Transformers 韓国語
E
sinjy1203
1,764
2
Phi3 Rag Relevance Judge Merge
参照テキストと質問の関連性を判断するための二値分類モデルで、RAGシステム向けに最適化されています
大規模言語モデル Transformers
P
grounded-ai
21
1
All MiniLM L6 V2 GGUF
Apache-2.0
all-MiniLM-L6-v2はMiniLMアーキテクチャに基づく軽量な文埋め込みモデルで、英文テキストの特徴抽出や文類似度計算に適しています。
テキスト埋め込み 英語
A
leliuga
598
3
Sentence Transformers Alephbertgimmel Small
これはsentence-transformersベースのヘブライ語文類似性計算モデルで、テキストを512次元ベクトル空間にマッピングし意味検索やクラスタリングタスクに使用可能
テキスト埋め込み Transformers その他
S
imvladikon
39
1
Silver Retriever Base V1
Silver Retrieverはポーランド語向けのニューラル検索モデルで、文の類似性や段落検索タスクに特化しています。
テキスト埋め込み Transformers その他
S
ipipan
554
11
Vectorizer V1 S En
Sinequaによって開発されたベクトル化ツールで、段落やクエリから埋め込みベクトルを生成し、文の類似度計算や特徴抽出に使用されます。
テキスト埋め込み Transformers 英語
V
sinequa
304
0
Rubert Tiny Questions Classifier
MIT
これはruBert-tinyをベースとしたロシア語問題分類モデルで、正確な問題と非正確な問題を区別します。
テキスト分類 Transformers その他
R
Den4ikAI
20
3
Bert Base Chinese Qa
Gpl-3.0
繁体中国語のtransformersモデル及び自然言語処理ツールを提供
質問応答システム Transformers 中国語
B
ckiplab
58
7
Question Vs Statement Classifier
このモデルは質問クエリとステートメントクエリを区別するために使用され、Haystackの分類機能を通じてニューラル検索クエリ分類を実現するために特別に訓練されています。
テキスト分類 Transformers 英語
Q
shahrukhx01
71.37k
43
Distilbert Zwnj Wnli Mean Tokens
これはDistilBERTアーキテクチャに基づく文埋め込みモデルで、文の類似度計算タスクに特化しています。
テキスト埋め込み Transformers
D
m3hrdadfi
46
1
Mengzi Oscar Base
Apache-2.0
Oscarフレームワークに基づいて構築された中国語多モーダル事前学習モデルで、孟子-Bert基本版で初期化され、370万組の画像テキストペアで訓練されています。
画像生成テキスト Transformers 中国語
M
Langboat
20
5
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase