# 7Bパラメータ効率化

Open Instruct Code Alpaca 7b
コードアルパカデータセットでファインチューニングされた7BパラメータLLaMaモデル、コード生成タスクに特化
大規模言語モデル Transformers 英語
O
allenai
29
2
Llava Video 7B Qwen2 TPO
MIT
LLaVA-Video-7B-Qwen2-TPOはLLaVA-Video-7B-Qwen2を基に時間選好最適化を施した動画理解モデルで、複数のベンチマークテストで優れた性能を発揮します。
ビデオ生成テキスト Transformers
L
ruili0
490
1
Dolphinhermespro ModelStock
Apache-2.0
このモデルは、Dolphin-2.8とHermes-2-Proの2つの7BパラメータモデルをLazyMergeKitで統合したハイブリッドモデルで、Mistral-7Bアーキテクチャに基づいています。
大規模言語モデル Transformers
D
Kquant03
14
1
Starling Dolphin E26 7B
Apache-2.0
Starling-dolphin-E26-7Bは実験的言語モデルで、複数の高性能モデルを融合して構築され、命令追従やクリエイティブライティングを含む様々なタスクを広範に処理することを目的としています。
大規模言語モデル Transformers
S
bunnycore
25
2
Calme 7B Instruct V0.9
Apache-2.0
Calme-7BはMistral-7Bを微調整した70億パラメータの言語モデルで、明確で平和的かつ一貫性のあるテキスト生成に優れています。
大規模言語モデル Transformers
C
MaziyarPanahi
25
10
Percival 01 7b Slerp
Apache-2.0
Percival_01-7b-slerpはOPENLLMランキングで2位を獲得した7Bパラメータ規模の大規模言語モデルで、LazyMergekitツールを使用してliminerity/M7-7bとGille/StrangeMerges_32-7B-slerpの2つのモデルを統合して作成されました。
大規模言語モデル Transformers
P
AurelPx
24
4
RM Mistral 7B
Mistral-7Bをベースに訓練された報酬モデルで、強化学習人間フィードバック(RLHF)シナリオにおける応答品質評価に使用
大規模言語モデル Transformers
R
weqweasdas
552
22
Mistral 7B Instruct Aya 101 GGUF
Apache-2.0
これはMistral-7B-Instruct-v0.2をベースにした多言語対話モデルで、101言語をサポートし、GGUF形式で量子化されています。
大規模言語モデル 複数言語対応
M
MaziyarPanahi
214
8
Synatra 7B V0.3 RP Mistral 7B Instruct V0.2 Slerp
Apache-2.0
本モデルは球面線形補間(slerp)によりMistral-7B命令微調整版とSynatra-7Bロールプレイ版を融合したもので、命令理解とロールプレイ能力を兼ね備えています
大規模言語モデル Transformers
S
MaziyarPanahi
25
1
Mistral Ft Optimized 1227
Apache-2.0
これは複数の優れたオープンソースモデル(OpenHermes-2.5、neural-chat-7b、MetaMath-Mistral-7B、openchat-3.5を含む)を階層的SLERP統合したモデルで、様々な下流タスクに適した強力な基盤モデルとなることを目指しています。
大規模言語モデル Transformers
M
OpenPipe
2,883
82
Dpopenhermes 7B V2
Apache-2.0
DPOpenHermes 7B v2はOpenHermes-2.5-Mistral-7Bを基にした2回目のRL微調整モデルで、直接選好最適化(DPO)による強化学習を行い、Intel/orca_dpo_pairsとallenai/ultrafeedback_binarized_cleanedの選好データセットを使用しています。
大規模言語モデル Transformers 英語
D
openaccess-ai-collective
30
31
Synapsellm 7b Mistral V0.4 Preview2
Apache-2.0
SynapseLLMはWebraftAIが開発したMistralを微調整した7Bパラメータの大規模言語モデルで、コードと一般的なQ&Aシナリオに特化しています。
大規模言語モデル Transformers 複数言語対応
S
WebraftAI
108
1
Amberchat
Apache-2.0
AmberChatはLLM360/Amberをファインチューニングした命令追従モデルで、LLM360のPebbleモデルシリーズに属します。
大規模言語モデル Transformers 英語
A
LLM360
4,790
24
Llama2 7b Finance
MIT
金融データセットでファインチューニングされたLLama 2 7b言語モデルで、金融分野に特化しており、金融関連テキストの抽出、理解、生成に優れています。
大規模言語モデル Transformers 英語
L
cxllin
228
19
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase