Llama 3 3 Nemotron Super 49B V1 GGUF
その他
Llama-3.3-Nemotron-Super-49B-v1 は大規模言語モデルで、Meta Llama-3.3-70B-Instruct を改良し、推論能力、人間とのチャット適性、タスク実行能力を強化し、128Kトークンのコンテキスト長をサポートします。
大規模言語モデル
Transformers 英語

L
unsloth
814
1
Flashvl 2B Dynamic ISS
Apache-2.0
FlashVLは、リアルタイムアプリケーションに使用するためのビジュアル言語モデル(VLMs)を最適化する新しい方法で、超低遅延と高スループットを実現しながら、精度を犠牲にしません。
画像生成テキスト
Transformers 複数言語対応

F
FlashVL
117
2
ELYZA Thinking 1.0 Qwen 32B
Apache-2.0
ELYZA-Thinking-1.0-Qwen-32BはELYZA, Incによって訓練された日本語推論モデルで、Qwen/Qwen2.5-32B-Instructをベースに後続訓練を行い、日本語の推論能力を強化しています。
大規模言語モデル
Transformers 複数言語対応

E
elyza
2,286
6
Qwen3 4B INT8
Apache-2.0
Hugging Face transformersライブラリに基づく4Bパラメータの大規模言語モデルで、テキスト生成、思考モード切り替え、ツール呼び出し、長テキスト処理などの機能をサポートします。
大規模言語モデル
Transformers

Q
zhiqing
1,904
1
Qwen3 0.6B Bf16
Apache-2.0
これはQwen/Qwen3-0.6Bを基に変換されたMLX形式のテキスト生成モデルで、中国語と英語のテキスト生成タスクをサポートしています。
大規模言語モデル
Q
mlx-community
1,812
5
Qwen3 0.6B 8bit
Apache-2.0
Qwen3-0.6B-8bitは、Qwen/Qwen3-0.6Bをベースに変換された8ビット量子化バージョンで、MLXフレームワークに適したテキスト生成モデルです。
大規模言語モデル
Q
mlx-community
2,625
3
Deepseek R1 Distill Llama 70B Abliterated Mlx 4Bit
これはLlama-70Bに基づく蒸留モデルで、mlx-lmを通じてMLX形式に変換され、4ビット量子化処理が行われています。
大規模言語モデル
Transformers

D
cs2764
358
1
Google Gemma 2 27b It AWQ
Gemma 2 27B ITは、AutoAWQ量子化に基づく4ビットの大規模言語モデルで、対話と命令追従タスクに適しています。
大規模言語モデル
Safetensors
G
mbley
122
2
Qwen2.5 7B HomerFuse NerdExp
Apache-2.0
HomerSlerp6-7Bの強力なファインチューニングAIモデルをベースに、複数のQwen2.5-7Bシリーズモデルを融合し、高い適応性、深い知識、魅力的なインタラクション体験を提供
大規模言語モデル
Transformers 英語

Q
ZeroXClem
74
3
Gemma 3 12b It Q5 K M GGUF
これはgoogle/gemma-3-12b-itから変換されたGGUF形式モデルで、llama.cppフレームワークに適しています。
大規模言語モデル
G
NikolayKozloff
46
1
Deepseek R1 Distill Qwen 32B Quantized.w8a8
MIT
DeepSeek-R1-Distill-Qwen-32Bの量子化バージョン。INT8の重み量子化と活性化量子化により、メモリ要件を削減し、計算効率を向上させます。
大規模言語モデル
Transformers

D
RedHatAI
3,572
11
Llama 3.1 Swallow 8B Instruct V0.3
Llama 3.1 SwallowはMeta Llama 3.1をベースに構築された大規模言語モデルシリーズで、持続的事前学習により日本語能力を強化し、同時に英語能力を維持しています。
大規模言語モデル
Transformers 複数言語対応

L
tokyotech-llm
16.48k
20
Deepseek V2 Lite Chat GGUF
その他
DeepSeek-V2-Lite-Chatは軽量チャットモデルで、DeepSeek-V2アーキテクチャに基づいて最適化され、効率的な対話生成タスクに適しています。
大規模言語モデル
Transformers

D
gaianet
1,334
1
Mahamarathi 7B V24.01 Base
MIT
MahaMarathi 7Bは、Llama2+Mistralアーキテクチャに基づく、70億のパラメータを持つ分野適応型の持続的事前学習指令微調整のネイティブマラーティー語大規模言語モデル(LLM)です。8300万人以上の母語話者向けに設計されており、マラーティー語の複雑な対話と指令のやり取りをスムーズに処理することができます。
大規模言語モデル
Transformers その他

M
marathi-llm
51
36
Karakuri Lm 70b Chat V0.1
その他
KARAKURI LMはLlama 2をベースに構築された事前学習言語モデルで、日本語処理能力を強化し、日本語および多言語コーパスでさらに事前学習を行っています。
大規模言語モデル
Transformers 複数言語対応

K
karakuri-ai
2,300
24
Telechat 7B
Apache-2.0
TeleChatは中国電信人工知能科技有限公司が開発・訓練した大規模言語モデルで、7Bモデル基盤は1.5兆トークンの中英語高品質コーパスで訓練され、12Bモデル基盤は3兆トークンの中英語高品質コーパスで訓練されています。
大規模言語モデル
Transformers

T
Tele-AI
238
108
Leo Hessianai 7b Chat
初のLlama - 2をベースに構築された、商用可能なオープンドイツ語基礎言語モデルで、ドイツ語の言語処理に特化しています。
大規模言語モデル
Transformers 複数言語対応

L
LeoLM
2,263
17
T5 Base Canard
このモデルは対話型質問の再構成訓練用に特別に設計されており、過去の対話と現在の質問に基づいて首尾一貫した質問の再構成を生成することができます。
対話システム
T
castorini
229
3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98