# マルチターン対話の最適化

Qwen 2.5 7B Base RAG RL
Qwen-2.5-7B-base-RAG-RLは、未知のデータセットからスクラッチでトレーニングされた7Bパラメータ規模の大規模言語モデルで、検索拡張生成(RAG)と強化学習(RL)技術を組み合わせています。
大規模言語モデル Transformers
Q
XXsongLALA
859
7
Gemma 3 4b It Q4 0
Gemma 3 4B Instruct は Google が開発した40億パラメータの大規模言語モデルで、テキスト生成と理解タスクに特化しています。
大規模言語モデル
G
danchev
24
0
Gemma 3 27b It Abliterated Q4 K M GGUF
このモデルはmlabonne/gemma-3-27b-it-abliteratedを変換したGGUF形式バージョンで、llama.cppフレームワークの推論タスクに適しています。
大規模言語モデル
G
NovNovikov
341
3
Hermes 3 Llama 3.2 3B Abliterated
Hermes 3 3BはNous ResearchのHermesシリーズLLMの新たな小型ながら強力なメンバーで、LLMとユーザーのアラインメントに焦点を当て、エンドユーザーに強力なガイダンスと制御能力を提供します。
大規模言語モデル Transformers 英語
H
lunahr
33
5
H2o Danube3.1 4b Chat
Apache-2.0
H2O.aiによって微調整された40億パラメータのチャットモデル、Llama 2アーキテクチャを基に調整、8192トークンのコンテキスト長をサポート
大規模言語モデル Transformers 英語
H
h2oai
271
5
Gguf Q5 K M NanoLM 1B Instruct V2
Gpl-3.0
これはNanoLM-1B-Instruct-v2を基にGGUF形式に変換されたモデルで、テキスト生成タスクに適しています。
大規模言語モデル 英語
G
Felladrin
49
1
Yi 1.5 6B Chat
Apache-2.0
Yi-1.5はYiモデルのアップグレード版で、プログラミング、数学、推論、指示追従能力においてより優れたパフォーマンスを発揮し、卓越した言語理解、常識推論、読解力を維持しています。
大規模言語モデル Transformers
Y
01-ai
13.32k
42
Yi 1.5 34B
Apache-2.0
Yi-1.5はYiモデルのアップグレード版で、プログラミング、数学、推論、指示追従能力においてより優れた性能を発揮します
大規模言語モデル Transformers
Y
01-ai
404
48
Yi 1.5 34B Chat
Apache-2.0
Yi-1.5はYiモデルのアップグレード版で、プログラミング、数学、推論、指示追従能力においてより優れたパフォーマンスを発揮し、卓越した言語理解、常識推論、読解力を維持しています。
大規模言語モデル Transformers
Y
01-ai
70.62k
270
Meta Llama 3 70B Instruct GGUF
Meta公式のLlama 3 70B命令微調整モデルのGGUF量子化バージョンで、2-16bitの複数量子化レベルをサポートし、ローカル展開の対話シナリオに適しています
大規模言語モデル 英語
M
MaziyarPanahi
18.89k
168
Meta Llama 3 70B Instruct
Meta Llama 3 70B Instructは、Metaが発表した700億パラメータの命令調整型大規模言語モデルで、対話シナリオに最適化されており、有用性と安全性の面で優れた性能を発揮します。
大規模言語モデル Transformers 英語
M
meta-llama
407.38k
1,469
TC Instruct DPO
Apache-2.0
台風7Bを微調整したタイ語命令最適化モデルで、直接選好最適化(DPO)技術を用いてトレーニング
大規模言語モデル Transformers 複数言語対応
T
tanamettpk
28
10
Openchat 3.5 0106
Apache-2.0
OpenChatはMistral-7Bをベースとしたオープンソースの言語モデルで、混合品質データによるトレーニングにより優れたテキスト生成能力を提供します。
大規模言語モデル Transformers
O
openchat
85.06k
357
Xwin LM 7B V0.2
Xwin-LMはLlama2をベースに開発された大規模言語モデルで、アライメント技術の研究に重点を置いており、AlpacaEvalベンチマークテストで優れた性能を発揮しています。
大規模言語モデル Transformers
X
Xwin-LM
4,345
46
Xwin LM 13B V0.1
Xwin-LMはLlama2を基盤に開発された大規模言語モデルで、アライメント技術の研究開発に注力しており、AlpacaEvalベンチマークテストで優れた性能を発揮しています。
大規模言語モデル Transformers
X
Xwin-LM
84
64
CAMEL 33B Combined Data
CAMEL-33BはLLaMA-33Bを微調整した大規模言語モデルで、CAMELフレームワークの対話データ、ShareGPTの公開対話、Alpacaの命令データを統合し、マルチターン対話と命令理解に優れています。
大規模言語モデル Transformers
C
camel-ai
97
6
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase