Bge Reranker Base Q4 K M GGUF
MIT
BAAI/bge-reranker-baseモデルを変換したGGUF形式のリランキングモデルで、中国語と英語のテキストランキングタスクをサポート
テキスト埋め込み 複数言語対応
B
sabafallah
44
0
Deepseek R1 Medical Distill Llama 8B
Apache-2.0
Llamaアーキテクチャを蒸留最適化した8Bパラメータ医療QAモデル、専門医学データによる微調整で臨床意思決定支援能力を向上
大規模言語モデル
D
zeewin-ai
39
2
Llama 3.1 8b Dolermed R1 V1.01
これはLlama-3.1アーキテクチャをベースとした80億パラメータの言語モデルで、mergekitツールを使用して複数の専門領域のLlama-3.1バリアントモデルを統合しています。
大規模言語モデル
Transformers

L
Nexesenex
50
2
Gte Large Zh GGUF
MIT
このモデルはllama.cppを使用してthenlper/gte-large-zhから変換されたGGUF形式のモデルで、主に中国語テキストの埋め込みと文の類似度計算に使用されます。
テキスト埋め込み 英語
G
linlueird
37
1
Bge Reranker Base Q8 0 GGUF
MIT
このモデルはBAAI/bge-reranker-baseから変換されたGGUFフォーマットのモデルで、主にテキスト再ランキングタスクに使用されます。
テキスト埋め込み 複数言語対応
B
xinming0111
106
1
Bge Reranker Large Q4 K M GGUF
MIT
このモデルはBAAI/bge-reranker-largeから変換されたGGUF形式モデルで、リランキングタスクに使用され、中国語と英語をサポートします。
テキスト埋め込み 複数言語対応
B
DrRos
164
1
Self Biorag 7b Olaph
Minbyul/selfbiorag-7b-wo-kqa_golden-iter-dpo-step3-filteredを基にファインチューニングしたバージョンで、HuggingFace MedLFQA(kqa_goldenを除く)データセットを使用して直接選好最適化(DPO)トレーニングを実施
大規模言語モデル
Transformers 英語

S
dmis-lab
20
3
Polish Reranker Base Ranknet
Apache-2.0
RankNet損失関数で訓練されたポーランド語テキストランキングモデル、情報検索タスクに適応
テキスト埋め込み
Transformers その他

P
sdadas
332
1
Psyfighter 13B
これはLlama-2-13Bをベースとしたハイブリッドモデルで、Tiefighter、MedLLaMA、limarp-v2など複数モデルの特徴を統合し、様々なテキスト生成タスクに適しています。
大規模言語モデル
Transformers

P
jebcarter
86
12
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98