Llama 3 3 Nemotron Super 49B V1 FP8
その他
Llama-3.3-Nemotron-Super-49B-v1-FP8は、Meta Llama-3.3-70B-Instructから派生した大規模言語モデルで、推論能力、対話設定、タスク実行能力を強化するために最適化されており、128Kトークンのコンテキスト長をサポートします。
大規模言語モデル
Transformers 英語

L
nvidia
81
4
THUDM GLM 4 32B 0414 6.5bpw H8 Exl2
MIT
GLM-4-32B-0414はGLMファミリーの新メンバーで、パラメータ規模は320億に達し、性能はGPTシリーズに匹敵し、ローカル展開をサポートしています。
大規模言語モデル
Transformers 複数言語対応

T
LatentWanderer
148
2
GLM 4 32B 0414 GGUF
MIT
GLM-4-32B-0414は320億のパラメータを持つ大規模言語モデルで、性能はGPT-4oやDeepSeek-V3に匹敵し、中国語と英語をサポートし、卓越したコード生成、関数呼び出し、複雑なタスク処理能力を備えています。
大規模言語モデル 複数言語対応
G
unsloth
4,680
10
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1シリーズは多言語大規模言語モデル(LLMs)のコレクションで、8B、70B、405Bサイズの事前学習済みおよび指示調整済み生成モデルを含みます。8Bバージョンは多言語対話ユースケース向けに最適化されており、一般的なベンチマークテストで優れた性能を発揮します。
大規模言語モデル 複数言語対応
L
unsloth
4,071
6
GLM 4 32B 0414
MIT
GLM-4-32B-0414は320億パラメータ規模の大規模言語モデルで、GPTシリーズと同等の性能を持ち、中国語と英語をサポートし、コード生成、関数呼び出し、複雑なタスク処理に優れています。
大規模言語モデル
Transformers 複数言語対応

G
THUDM
10.91k
320
Meta Llama 3.1 8B Instruct FP16
Llama 3.1はMetaが開発した多言語大規模言語モデルの集合で、8B、70B、405Bパラメータのバージョンがあり、8言語をサポートし、対話ユースケースに最適化されています。
大規模言語モデル
Safetensors 複数言語対応
M
context-labs
565.13k
1
Llama 3.3 70B Instruct GGUF
Llama-3.3-70B-InstructはMetaがリリースした多言語大規模言語モデルで、多言語対話ユースケースに最適化されており、複数の業界ベンチマークで優れた性能を発揮します。
大規模言語モデル
Transformers 英語

L
unsloth
7,922
65
Llama 3 8B Instruct GGUF Q4 K M
Meta Llama3 Instruct 8BはMetaがリリースした8Bパラメータの命令調整大規模言語モデルで、対話シーンに最適化され、安全性と有用性の面で優れた性能を発揮します。
大規模言語モデル 英語
L
thesven
76
1
Meta Llama Meta Llama 3 8B Instruct 4bits
Meta Llama 3 8Bパラメータ版の命令調整モデルで、対話シナリオ向けに最適化されており、優れた支援性と安全性を発揮します。
大規模言語モデル
Transformers

M
RichardErkhov
28
1
Meta Llama 3 8B
Meta Llama 3はMetaが開発した大規模言語モデルシリーズで、8Bと70Bの2つのサイズがあり、対話最適化と安全性に焦点を当てています。
大規模言語モデル
Transformers 英語

M
meta-llama
509.91k
6,151
Llama
Llama 2はMetaが開発した700億パラメータの対話最適化大規模言語モデルで、ほとんどのベンチマークテストでオープンソースの対話モデルを上回り、安全性は主要なクローズドソースモデルに匹敵します
大規模言語モデル
Transformers 英語

L
TheCraftySlayer
48
1
Llama 2 7b Chat Hf
Llama 2はMetaがオープンソース化した生成テキストモデルシリーズで、70億から700億パラメータの事前学習及び対話用ファインチューニングバージョンを含む。本モデルは70億パラメータ対話最適化版で、対話シナリオ向けに強化学習でファインチューニングされている。
大規模言語モデル
Transformers 英語

L
meta-llama
1.2M
4,390
Llama 2 13b Hf
Llama 2はMetaが開発した一連の事前学習および微調整済みテキスト生成モデルで、70億から700億パラメータまでの規模があります。これは13Bの事前学習モデルで、Hugging Face Transformers形式に変換されています。
大規模言語モデル
Transformers 英語

L
meta-llama
62.51k
598
Llama 2 13b Chat Hf
Llama 2はMetaがオープンソース化した130億パラメータの対話最適化大規模言語モデルで、RLHFを用いて人間の嗜好にアライメントされ、4kのコンテキスト長をサポート
大規模言語モデル
Transformers 英語

L
meta-llama
147.25k
1,075
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98