# 多分野質問応答

General Reasoner Qwen3 14B
Apache-2.0
万能推論者はQwen3-14B-Baseをベースに訓練された大規模言語モデルで、分野横断的な推論能力の強化に特化しています
大規模言語モデル Safetensors
G
TIGER-Lab
502
4
Delta Pavonis Qwen 14B
Apache-2.0
Qwen2.5 14Bモーダルアーキテクチャに基づいて設計された強化推論モデルで、汎用推論と質問応答シナリオを最適化し、128K文脈と8K出力をサポート
大規模言語モデル Transformers
D
prithivMLmods
547
3
Theta Lyrae Qwen 14B
Apache-2.0
Theta-Lyrae-Qwen-14BはQwen 2.5 14Bモーダルアーキテクチャを基に設計された140億パラメータモデルで、汎用推論と質問応答能力を最適化し、文脈理解、論理的推論、多段階問題解決において優れた性能を発揮します。
大規模言語モデル Transformers
T
prithivMLmods
21
2
Polish Reranker Large Ranknet
Apache-2.0
これはRankNet損失関数でトレーニングされたポーランド語テキストランキングモデルで、140万件のクエリと1000万件のドキュメントからなるテキストペアで構成されたデータセットでトレーニングされています。
テキスト埋め込み Transformers その他
P
sdadas
337
2
Llama 160M Chat V1
Apache-2.0
これは160MパラメータのLlamaチャットモデルで、JackFram/llama-160mを微調整したもので、テキスト生成タスクに特化しています。
大規模言語モデル Transformers 英語
L
Felladrin
586
19
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase