# 命令チューニング

Gemma 1.1 7b It
GemmaはGoogleが提供する軽量級のオープンモデルシリーズで、Geminiと同じ技術に基づいて構築されており、テキスト生成タスクに適しています。
大規模言語モデル Transformers
G
google
17.43k
271
Ultralong Thinking
SLERP法でマージされた8Bパラメータ言語モデル、DeepSeek-R1とNemotron-8Bモデルの利点を統合
大規模言語モデル Transformers
U
mergekit-community
69
2
Gemma 3 27b It Qat Q4 0 Unquantized
Gemma 3はGoogleが提供する軽量で先進的なマルチモーダルオープンモデルで、Geminiモデルと同じ研究と技術に基づいて構築されており、テキストと画像の入力をサポートしテキスト出力を生成します。
テキスト生成画像 Transformers
G
google
11.53k
23
Gemma 3 4b It Quantized W4A16
Gemma 3はGoogleが開発した軽量オープンソース大規模言語モデルで、このリポジトリでは4Bパラメータ版のW4A16量子化モデルを提供し、ハードウェア要件を大幅に低減します。
大規模言語モデル Transformers
G
abhishekchohan
592
2
Gemma 3 12b It Qat Q4 0 Gguf
Gemma 3はGoogleが提供する軽量で最先端のオープンソースマルチモーダルモデルで、画像とテキストの入力とテキスト出力をサポートし、128Kのコンテキストウィンドウと140以上の言語に対応しています。
画像生成テキスト
G
google
40.86k
109
Gemma 3 1b It
Gemma 3はGoogleが提供する軽量で先進的なオープンモデルシリーズで、Geminiモデルと同じ研究と技術に基づいて構築されています。このモデルはマルチモーダルモデルであり、テキストと画像の入力を処理し、テキスト出力を生成できます。
テキスト生成画像 Transformers
G
google
2.1M
347
Llama 3 ELYZA JP 8B
ELYZA社が訓練した大規模言語モデルで、Meta-Llama-3-8B-Instructを基に日本語能力を強化
大規模言語モデル Transformers 複数言語対応
L
elyza
13.52k
113
Gemma 2 27b It
GemmaはGoogleが提供する軽量オープンソース大規模言語モデルシリーズで、Geminiモデルと同じ技術に基づいて構築されており、様々なテキスト生成タスクに適しています。
大規模言語モデル Transformers
G
google
160.10k
543
It 5.3 Fp16 32k
Apache-2.0
サイクロン0.5*はロシア語と英語をサポートするオープンソースの大規模言語モデルで、RoPEコンテキストウィンドウを32kに拡張し、JSON処理とマルチターン対話能力を最適化しました
大規模言語モデル Transformers 複数言語対応
I
Vikhrmodels
74
11
Meta Llama 3 70B Instruct AWQ
その他
Meta-Llama-3-70B-InstructはMetaがリリースした700億パラメータ規模の命令チューニング大規模言語モデルで、対話ユースケースに最適化されており、安全性と有用性の面で優れた性能を発揮します。
大規模言語モデル Transformers 英語
M
TechxGenus
210
12
Openelm 450M Instruct
OpenELMは階層的スケーリング戦略でパラメータ割り当てを最適化したオープンソースの効率的言語モデル群で、2.7億から30億パラメータの事前学習版及び命令チューニング版を含みます。
大規模言語モデル Transformers
O
apple
114.41k
47
Codegemma 7b It
CodeGemmaはGemmaを基に構築された軽量オープンソースコードモデルコレクションで、コード生成、補完、対話タスクに特化しています。
大規模言語モデル Transformers
C
google
3,286
217
Codegemma 7b It GGUF
CodeGemmaはGemmaをベースに構築された軽量オープンソースコードモデルシリーズで、コード補完、生成、対話タスクに特化しています。
大規模言語モデル
C
google
46
56
Codellama 13b Instruct Hf
Code LlamaはMetaがリリースした事前学習済みテキスト生成モデルシリーズで、コード生成と理解に特化しており、70億から340億パラメータの異なるバージョンが含まれています。
大規模言語モデル Transformers その他
C
meta-llama
2,307
22
Swallow 70b Hf
Llama 2シリーズを基に日本語能力を強化したオープンソース大規模言語モデルで、7B/13B/70Bの3つの規模と命令チューニング版を提供
大規模言語モデル Transformers 複数言語対応
S
tokyotech-llm
2,088
10
Llama2 MedTuned 7b
Apache-2.0
Llama2 7Bモデルを基に命令チューニングを行った生物医学分野専用モデル
大規模言語モデル Transformers
L
nlpie
444
11
Codellama 13b Instruct Hf
CodeLlama-13b-InstructはMetaがリリースした130億パラメータの命令チューニングコード生成モデルで、安全な命令追従とコードアシスタントアプリケーション向けに設計されています
大規模言語モデル Transformers その他
C
codellama
206.94k
147
Gpt2 Open Instruct V1
MIT
これはopen-instruct-v1データセットでファインチューニングされたGPT2モデルで、アルパカ形式のプロンプトテンプレートを使用して命令チューニングを行っています。
大規模言語モデル Transformers 英語
G
vicgalle
2,124
34
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase