# 命令微調整モデル

Tngtech.olmo 2 Instruct Math 32B GGUF
OLMo-2-Instruct-Math-32B は数学タスクに特化した大規模言語モデルで、tngtechによってリリースされました。
大規模言語モデル
T
DevQuasar
272
1
Mistral Small 3.1 24b Instruct 2503 Jackterated GGUF
Apache-2.0
これはMistralアーキテクチャに基づく24Bパラメータ規模の大規模言語モデルで、テキスト生成タスクをサポートし、GGUFフォーマットを採用しています。
大規模言語モデル
M
JackCloudman
74
1
Mistral Small 3.1 24b Instruct 2503 Hf GGUF
これはmrfakename/mistral-small-3.1-24b-instruct-2503-hfモデルに基づくGGUFフォーマットの量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
M
MaziyarPanahi
137.78k
2
Writing Model Qwen 7B
Apache-2.0
Qwen2.5-7B-Instructを微調整したライティング評価専用モデル、12K規模のSFTデータセットで訓練
大規模言語モデル Transformers
W
AQuarterMile
72
3
Thedrummer Cydonia 24B V2.1 GGUF
その他
Cydonia-24B-v2.1は24Bパラメータの大規模言語モデルで、llama.cppのimatrix量子化処理を施し、さまざまなハードウェア要件に対応する複数の量子化バージョンを提供します。
大規模言語モデル
T
bartowski
4,417
7
Allenai.llama 3.1 Tulu 3.1 8B GGUF
Llama-3.1-Tulu-3.1-8BはAllenAIによって開発された大規模言語モデルで、Llamaアーキテクチャを基にしており、80億のパラメータを持ち、テキスト生成タスクに特化しています。
大規模言語モデル
A
DevQuasar
113
2
Nvidia AceInstruct 7B GGUF
NVIDIA AceInstruct-7Bモデルを基にした量子化バージョンで、llama.cppを使用して量子化されており、コード、数学、汎用分野のタスクに適しています。
大規模言語モデル
N
bartowski
196
3
Smolvlm Instruct
Apache-2.0
HuggingFaceTB/SmolVLM-Instructを基に微調整されたインテリジェントな視覚言語モデルで、UnslothとTRLライブラリを使用してトレーニング速度を最適化
テキスト生成画像 Transformers 英語
S
mjschock
18
2
Llama 3.3 70B Instruct FP8 Dynamic
Llama-3.3-70B-Instruct-FP8-dynamicは最適化された大規模言語モデルで、活性化関数と重みをFP8データ型に量子化することで、GPUメモリの必要量を削減し、計算スループットを向上させ、多言語の商用および研究用途をサポートします。
大規模言語モデル Transformers 複数言語対応
L
RedHatAI
6,060
6
Solar Pro Preview Instruct GGUF
このプロジェクトは、upstage/solar-pro-preview-instructモデルのGGUF形式のファイルを提供し、テキスト生成タスクに適しています。
大規模言語モデル
S
MaziyarPanahi
196.59k
26
Llama 3 8B Instruct
Llama-3-8Bを基に北欧言語向けに最適化された命令微調整モデルで、スウェーデン語、デンマーク語、ノルウェー語をサポート
大規模言語モデル Transformers その他
L
AI-Sweden-Models
570
12
Llama 3 8B SFR Iterative DPO R
Llama-3-8Bベースの命令最適化モデルで、反復型DPO強化学習トレーニングを採用し、複数のベンチマークテストで同規模および一部の大規模モデルを上回る
大規模言語モデル Transformers
L
Salesforce
55
78
Mistral 7B OpenOrca Oasst Top1 2023 08 25 V3 Mistral 7B Instruct V0.1
Apache-2.0
これはMistral-7Bアーキテクチャに基づく融合モデルで、Mistral-7B-InstructとOpenOrca-oasst_top1の2つのモデルの利点を組み合わせ、多言語テキスト生成タスクに特化しています。
大規模言語モデル Transformers 複数言語対応
M
MaziyarPanahi
44
1
Mamba 2.8b Instruct Openhermes
これはOpenHermesデータセットで微調整された28億パラメータのMAMBAモデルで、新しい状態空間アーキテクチャを採用し、テキスト生成タスクに優れています。
大規模言語モデル Transformers 英語
M
clibrain
202
72
Pivot 0.1 Evil A
PiVoT-0.1-earlyはMistral 7Bを微調整したモデルで、テキスト生成タスクに特化しており、さまざまな実験ニーズに対応するための異なるバリアントバージョンがあります。
大規模言語モデル Transformers 複数言語対応
P
maywell
478
46
H2ogpt Gm Oasst1 En 2048 Open Llama 7b Preview 700bt
Apache-2.0
OpenLlama 7B事前学習モデルを微調整した大規模言語モデルで、OpenAssistantデータセットで訓練され、英語テキスト生成タスクをサポート
大規模言語モデル Transformers 英語
H
h2oai
58
4
Lamini T5 738M
LaMini-T5-738Mはt5-largeをLaMini-instructionデータセットで微調整した命令微調整モデルで、パラメータ数は738M、LaMini-LMシリーズモデルの1つです。
大規模言語モデル Transformers 英語
L
MBZUAI
2,966
49
Alpaca 7b
このリポジトリには、スタンフォードAlpacaデータセットで内部調整されたLLaMA-7bモデルが含まれており、主に機械翻訳研究に使用されます。
大規模言語モデル Transformers
A
wxjiao
387
12
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase