# 対話最適化

Llama 3.1 Nemotron Nano 4B V1.1 GGUF
その他
NVIDIAがリリースした40億パラメータ規模の大規模言語モデルで、128kトークンのコンテキスト長をサポートし、推論、対話、RAGなどのタスクに最適化されています
大規模言語モデル 英語
L
lmstudio-community
588
1
Violet Lyra Gutenberg V4
これは複数の高品質モデルを統合したハイブリッドモデルで、中国語テキスト生成と対話タスクに特化しています。
大規模言語モデル Transformers
V
ohyeah1
13
2
Mlabonne Gemma 3 27b It Abliterated GGUF
Google Gemma 3Bモデルを基にした量子化バージョンで、llama.cppを使用して最適化され、様々な量子化レベルをサポートし、テキスト生成タスクに適しています。
大規模言語モデル
M
bartowski
7,217
20
Teacher Persona GGUF
Qwen2-1.5B-Instructはアリババクラウドが提供する15億パラメータ規模の命令ファインチューニング大規模言語モデルで、Q&Aや対話タスクに適しています。
大規模言語モデル
T
RyZhangHason
24
1
Captain Eris Violet Toxic Magnum 12B
SLERP方法を通じて2つの事前学習言語モデルを融合し、それぞれの優位性を結合して性能と適用性を向上させることを目的としています。
大規模言語モデル Transformers
C
ChaoticNeutrals
168
8
Romboultima 32B
MIT
RombUltima-32B は融合モデルで、Rombos-LLM-V2.5-Qwen-32b と Ultima-32B の利点を組み合わせ、推論能力、多言語理解能力、および多輪対話のパフォーマンスを最適化しています。
大規模言語モデル Transformers
R
FINGU-AI
75
4
Llama 2 7b Chat Hf Q4 K M GGUF
MetaがリリースしたLlama 2シリーズ7BパラメータチャットモデルのGGUF量子化バージョン、ローカル展開と推論に適しています
大規模言語モデル 英語
L
matrixportal
220
4
Llama 3 Chinese 8b Instruct V3
Apache-2.0
Llama-3-Chinese-8B-Instruct-v3 は複数の混合モデルをさらにファインチューニングした中国語命令モデルで、対話や質問応答などのシナリオに適しています。
大規模言語モデル Transformers 複数言語対応
L
hfl
468
62
Llama 3 8B Instruct GGUF Q4 K M
Meta Llama3 Instruct 8BはMetaがリリースした8Bパラメータの命令調整大規模言語モデルで、対話シーンに最適化され、安全性と有用性の面で優れた性能を発揮します。
大規模言語モデル 英語
L
thesven
76
1
Llama 3 8b 64k PoSE
Llama 3 8B 64KはMetaのLlama 3 8Bモデルをベースに、PoSE技術を用いてコンテキスト長を8kから64kに拡張し、言語生成能力を最適化したもので、対話などの様々な自然言語処理シーンに適しています。
大規模言語モデル Transformers 英語
L
winglian
3,689
76
Meta Llama 3 8B Instruct GPTQ
その他
Metaが開発した80億パラメータの大規模言語モデルで、対話シーンに最適化され、実用性とセキュリティを兼ね備えています。
大規模言語モデル Transformers 英語
M
TechxGenus
3,491
4
Meta Llama 3 8B Instruct Hf AWQ
その他
Meta Llama 3シリーズの大規模言語モデルで、80億パラメータ規模の命令ファインチューニングされたテキスト生成モデルであり、対話シナリオ向けに最適化されています。
大規模言語モデル Transformers
M
solidrust
848
9
Percival 01 7b Slerp
Apache-2.0
Percival_01-7b-slerpはOPENLLMランキングで2位を獲得した7Bパラメータ規模の大規模言語モデルで、LazyMergekitツールを使用してliminerity/M7-7bとGille/StrangeMerges_32-7B-slerpの2つのモデルを統合して作成されました。
大規模言語モデル Transformers
P
AurelPx
24
4
Openchat 3.5 0106 GGUF
Apache-2.0
Openchat 3.5 0106はMistralアーキテクチャに基づくオープンソースの対話モデルで、OpenChatチームによって開発されました。このモデルは高品質な対話体験を提供することに重点を置き、さまざまな対話タスクをサポートします。
大規模言語モデル
O
TheBloke
4,268
72
Openchat 3.5 GPTQ
Apache-2.0
OpenChat 3.5 7BはMistralアーキテクチャに基づく7Bパラメータの大規模言語モデルで、OpenChatチームによって開発され、Apache 2.0ライセンスで公開されています。
大規模言語モデル Transformers
O
TheBloke
107
17
Eleuther Pythia2.8b Hh Sft
Apache-2.0
Pythia-2.8bベースの因果言語モデルで、Anthropicの人間嗜好データセットを使用した教師ありファインチューニングを実施
大規模言語モデル Transformers 英語
E
lomahony
205
1
Eleuther Pythia6.9b Hh Sft
Apache-2.0
Pythia-6.9bベースモデルを使用し、Anthropicのhh-rlhfデータセットで教師ありファインチューニングされた因果言語モデル
大規模言語モデル Transformers 英語
E
lomahony
58
1
Llama 2 7b Chat Hf Function Calling
fLlama 2はLlama 2モデルに関数呼び出し機能を拡張し、関数名とパラメータを含む構造化JSONレスポンスを返します。このバージョンはGPTQ手法でトレーニングされ、高速な推論と良好な精度を提供します。
大規模言語モデル Transformers 英語
L
Trelis
53
48
Llama
Llama 2はMetaが開発した700億パラメータの対話最適化大規模言語モデルで、ほとんどのベンチマークテストでオープンソースの対話モデルを上回り、安全性は主要なクローズドソースモデルに匹敵します
大規模言語モデル Transformers 英語
L
TheCraftySlayer
48
1
Llama 2 13b Chat Hf
Llama 2はMetaがオープンソース化した130億パラメータの対話最適化大規模言語モデルで、RLHFを用いて人間の嗜好にアライメントされ、4kのコンテキスト長をサポート
大規模言語モデル Transformers 英語
L
meta-llama
147.25k
1,075
Deepspeed Chat Step3 Rlhf Actor Model Opt1.3b
OPT-1.3bモデルを基に、DeepSpeed-ChatフレームワークでRLHF訓練を施した対話生成モデル
大規模言語モデル Transformers 英語
D
zen-E
30
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase