# 医療QA最適化

Bge Reranker Base Q4 K M GGUF
MIT
BAAI/bge-reranker-baseモデルを変換したGGUF形式のリランキングモデルで、中国語と英語のテキストランキングタスクをサポート
テキスト埋め込み 複数言語対応
B
sabafallah
44
0
Deepseek R1 Medical Distill Llama 8B
Apache-2.0
Llamaアーキテクチャを蒸留最適化した8Bパラメータ医療QAモデル、専門医学データによる微調整で臨床意思決定支援能力を向上
大規模言語モデル
D
zeewin-ai
39
2
Llama 3.1 8b Dolermed R1 V1.01
これはLlama-3.1アーキテクチャをベースとした80億パラメータの言語モデルで、mergekitツールを使用して複数の専門領域のLlama-3.1バリアントモデルを統合しています。
大規模言語モデル Transformers
L
Nexesenex
50
2
Gte Large Zh GGUF
MIT
このモデルはllama.cppを使用してthenlper/gte-large-zhから変換されたGGUF形式のモデルで、主に中国語テキストの埋め込みと文の類似度計算に使用されます。
テキスト埋め込み 英語
G
linlueird
37
1
Bge Reranker Base Q8 0 GGUF
MIT
このモデルはBAAI/bge-reranker-baseから変換されたGGUFフォーマットのモデルで、主にテキスト再ランキングタスクに使用されます。
テキスト埋め込み 複数言語対応
B
xinming0111
106
1
Bge Reranker Large Q4 K M GGUF
MIT
このモデルはBAAI/bge-reranker-largeから変換されたGGUF形式モデルで、リランキングタスクに使用され、中国語と英語をサポートします。
テキスト埋め込み 複数言語対応
B
DrRos
164
1
Self Biorag 7b Olaph
Minbyul/selfbiorag-7b-wo-kqa_golden-iter-dpo-step3-filteredを基にファインチューニングしたバージョンで、HuggingFace MedLFQA(kqa_goldenを除く)データセットを使用して直接選好最適化(DPO)トレーニングを実施
大規模言語モデル Transformers 英語
S
dmis-lab
20
3
Polish Reranker Base Ranknet
Apache-2.0
RankNet損失関数で訓練されたポーランド語テキストランキングモデル、情報検索タスクに適応
テキスト埋め込み Transformers その他
P
sdadas
332
1
Psyfighter 13B
これはLlama-2-13Bをベースとしたハイブリッドモデルで、Tiefighter、MedLLaMA、limarp-v2など複数モデルの特徴を統合し、様々なテキスト生成タスクに適しています。
大規模言語モデル Transformers
P
jebcarter
86
12
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase