# 70B大規模モデル

Sophosympatheia StrawberryLemonade L3 70B V1.0 GGUF
StrawberryLemonade-L3-70B-v1.0は、量子化処理された大規模言語モデルで、様々なハードウェア条件下で効率的に動作することを目的としています。
大規模言語モデル 英語
S
bartowski
1,406
1
L3.3 70B Magnum Diamond GGUF
Llama 3のプロンプト形式に基づく70Bパラメータの大規模言語モデルで、ロールプレイングと創造的な執筆に最適化され、GGUF量子化バージョンを提供します。
大規模言語モデル 英語
L
Doctor-Shotgun
614
1
E N V Y Legion V2.1 LLaMa 70B Elarablated V0.8 Hf GGUF
Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hfはLLaMa-70Bの量子化バージョンで、llama.cppを使用して最適化され、さまざまなハードウェア要件に対応するための複数の量子化オプションを提供します。
大規模言語モデル
E
bartowski
267
1
Llama 3.3 70B Instruct 4bit DWQ
Llama 3.3 70B命令微調整モデルの4ビットDWQ量子化バージョン、MLXフレームワーク向けの効率的な推論に適しています
大規模言語モデル 複数言語対応
L
mlx-community
140
2
Deepcogito Cogito V1 Preview Llama 70B 6bit
これはLlamaアーキテクチャに基づく70Bパラメータの大規模言語モデルで、6ビット量子化処理が施され、テキスト生成タスクに適しています。
大規模言語モデル
D
mlx-community
8,168
1
Latxa Llama 3.1 70B Instruct
Latxa 3.1 70B InstructはLlama-3.1 (Instruct)を基にした命令ファインチューニング版で、バスク語に最適化されており、複数のバスク語ベンチマークテストで優れた性能を発揮します。
大規模言語モデル Transformers 複数言語対応
L
HiTZ
59
3
Deepseek Llama3.3 Bllossom 70B
MIT
DeepSeek-llama3.3-Bllossom-70BはDeepSeek-R1-distill-Llama-70Bモデルを基に構築され、韓国語環境での推論性能を向上させることを目的としています。
大規模言語モデル Transformers 複数言語対応
D
UNIVA-Bllossom
1,181
59
Llama 3.3 70B Instruct Quantized.w8a8
これはLlama-3.3-70B-Instructの量子化バージョンのモデルで、多言語のテキスト生成をサポートし、ビジネスや研究のシーンで使用でき、複数のベンチマークテストで優れた性能を発揮します。
大規模言語モデル Safetensors 複数言語対応
L
RedHatAI
19.02k
7
Llama 3.3 70B Instruct Abliterated Finetuned GPTQ Int8
これはLlama-3.3-70B-Instructモデルを基にしたGPTQ量子化8ビット版で、微調整と最適化が施されており、対話推論タスクに適しています。
大規模言語モデル Transformers 複数言語対応
L
huihui-ai
7,694
12
Llama 3.3 70B Instruct GGUF
Llama-3.3-70B-InstructモデルのGGUF量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
L
MaziyarPanahi
212.38k
14
Llama 3.1 SauerkrautLM 70b Instruct AWQ
Apache-2.0
Wisperlamaは、DFGが資金提供するWispermedグループの博士課程学生チームによって開発されたテキスト生成モデルで、Llama-3.1アーキテクチャをベースに最適化されています。
大規模言語モデル Safetensors 複数言語対応
L
WisPerMed
136
5
Meta Llama 3.1 70B Instruct FP8
Meta-Llama-3.1-70B-InstructのFP8量子化バージョンで、多言語の商業および研究用途に適しており、特にアシスタントのようなチャットシナリオに最適です。
大規模言語モデル Transformers 複数言語対応
M
RedHatAI
71.73k
45
Llama3 Preferred MedSwallow 70B
Llama3-Preferred-MedSwallow-70Bは、医学関連テキストの原始コーパスに基づいて継続的に事前学習された微調整モデルで、医学研究分野向けに設計されています。
大規模言語モデル Transformers 複数言語対応
L
pfnet
295
13
Higgs Llama 3 70B
その他
Meta-Llama-3-70Bをベースにファインチューニングされたモデルで、ロールプレイタスクに最適化されており、汎用領域の指示追従や推論タスクでも優れた性能を発揮します。
大規模言語モデル Transformers
H
bosonai
220
220
Llama 3 Swallow 8B V0.1
Meta Llama 3をベースに構築された日本語強化大規模言語モデル。継続的な事前学習と指示微調整により日本語処理能力を向上
大規模言語モデル Transformers 複数言語対応
L
tokyotech-llm
2,230
10
Llama 3 70B Instruct Abliterated GGUF
Meta LLaMA-3 70Bをベースにした命令微調整モデルで、量子化処理されており、ローカル展開と効率的な推論に適しています。
大規模言語モデル
L
bartowski
686
6
Calme 2.3 Llama3 70b
Meta-Llama-3-70B-InstructモデルをDPOファインチューニングした大規模言語モデルで、複数のベンチマークテストで優れた性能を発揮
大規模言語モデル Transformers 英語
C
MaziyarPanahi
31
4
Lzlv Limarpv3 L2 70b GGUF
これはDoctor-Shotgun/lzlv-limarpv3-l2-70bモデルの静的量子化バージョンで、さまざまなニーズに対応するために複数の量子化オプションを提供しています。
大規模言語モデル 英語
L
mradermacher
67
3
Boreangale 70B
その他
BoreanGale-70Bは、カスタムアルゴリズム(NearSwap)を使用して統合された70Bパラメータの大規模言語モデルで、miqu-1-70b-sfとWinterGoddess-1.4x-70B-L2の2つのモデルを統合して作成されました。
大規模言語モデル Transformers
B
alchemonaut
17
5
Codellama 70B Instruct GGUF
CodeLlama 70B InstructはLlama 2アーキテクチャを基盤とした大規模コード生成モデルで、コード理解と生成タスクに特化して最適化されています。
大規模言語モデル その他
C
TheBloke
2,703
57
GOAT 70B Storytelling
GOAT-70B-StorytellingはGOAT.AIラボが訓練した大規模言語モデルで、高品質で一貫性があり魅力的なストーリーや書籍などのナラティブコンテンツ生成に特化しています。
大規模言語モデル Transformers
G
GOAT-AI
162
50
Xwin LM 70B V0.1
Xwin-LMはLlama2を基盤とした強力な言語モデルで、大規模言語モデルのアライメント技術に特化しており、AlpacaEvalベンチマークテストで優れた性能を発揮しています。
大規模言語モデル Transformers
X
Xwin-LM
1,161
214
Xwin LM 7B V0.1
Xwin-LMはLlama2をベースにした大規模言語モデルのアライメント手法で、監視微調整、報酬モデルなどの技術を用いてモデルのアライメント能力を向上させることに焦点を当てています。7BバージョンはAlpacaEvalベンチマークテストで優れた性能を発揮しました。
大規模言語モデル Transformers
X
Xwin-LM
755
77
Stablebeluga2
Llama2 70Bモデルを微調整した大規模言語モデルで、Orcaスタイルのデータセットで訓練されており、複雑な指示の実行に優れています
大規模言語モデル Transformers 英語
S
petals-team
1.3M
19
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase