Qwen3 30B A3B Llamafile
Apache-2.0
Qwen3はQwenシリーズ最新世代の大規模言語モデルで、一連の高密度および混合専門家(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル
Q
Mozilla
143
1
Qwen3 4B Llamafile
Apache-2.0
Qwen3-4BはQwenシリーズ最新世代の大規模言語モデルで、4Bパラメータ規模を持ち、128kコンテキストウィンドウと100以上の言語をサポートし、推論、指示追従、エージェント能力において優れた性能を発揮します。
大規模言語モデル
Q
Mozilla
995
2
Llama 3.1 8B Instruct
Meta Llama 3.1シリーズの多言語大規模言語モデルで、8Bパラメータ規模を含み、多言語対話ユースケースに最適化され、8言語をサポートします。
大規模言語モデル
Safetensors 複数言語対応
L
RedHatAI
292
1
Granite 4.0 Tiny Base Preview
Apache-2.0
Granite-4.0-Tiny-Base-PreviewはIBMが開発した70億パラメータの混合専門家(MoE)言語モデルで、128kトークンのコンテキストウィンドウを持ち、Mamba-2技術で表現力を強化しています。
大規模言語モデル
Transformers

G
ibm-granite
156
12
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1シリーズは多言語大規模言語モデル(LLMs)のコレクションで、8B、70B、405Bサイズの事前学習済みおよび指示調整済み生成モデルを含みます。8Bバージョンは多言語対話ユースケース向けに最適化されており、一般的なベンチマークテストで優れた性能を発揮します。
大規模言語モデル 複数言語対応
L
unsloth
4,071
6
Gemma 3 27B It Qat GGUF
Googleが提供するGemma 3 27B ITモデルは、様々なテキスト生成や画像理解タスクに適しており、128kトークンのコンテキスト長とマルチモーダル画像処理をサポートします。
画像生成テキスト
G
lmstudio-community
41.35k
8
Dewey En Beta
MIT
デューイはModernBERTアーキテクチャに基づく新しい長文埋め込みモデルで、128kのコンテキストウィンドウをサポートし、長文書検索タスクで優れた性能を発揮します。
テキスト埋め込み
Transformers 英語

D
infgrad
447
14
Gemma 3 4b It MAX NEO Imatrix GGUF
Apache-2.0
GoogleのGemma-3モデルを基にした究極の量子化バージョンで、NEO Imatrix技術により性能が強化され、128kのコンテキスト長をサポートし、全シナリオタスクに適しています
大規模言語モデル
G
DavidAU
2,558
7
Qwen2.5 QwQ 37B Eureka Triple Cubed
Apache-2.0
QwQ-32Bの強化版で、'立方'および'三重立方'手法により推論と出力能力を向上させ、128kのコンテキストをサポートします。
大規模言語モデル
Transformers その他

Q
DavidAU
210
5
Reformed Christian Bible Expert 12B
Apache-2.0
改革派神学と聖書研究に最適化された言語モデル。Mistral-Nemo-Instruct-2407を基盤に構築され、卓越した神学的推論能力を備え、128kトークンのコンテキストウィンドウをサポート。
大規模言語モデル
R
sleepdeprived3
67
6
Llama 3.2 4X3B MOE Ultra Instruct 10B GGUF
Apache-2.0
Llama 3.2ベースのエキスパート混合モデルで、4つの3Bモデルを統合して10Bパラメータモデルを形成し、128kのコンテキスト長をサポート、インストラクション追従と全シナリオ生成に優れています。
大規模言語モデル 英語
L
DavidAU
277
7
Llama 3.3 70B Instruct GGUF
Llama-3.3-70B-InstructはMetaがリリースした多言語大規模言語モデルで、多言語対話ユースケースに最適化されており、複数の業界ベンチマークで優れた性能を発揮します。
大規模言語モデル
Transformers 英語

L
unsloth
7,922
65
Llama 3.2 1B Instruct AWQ
Llama 3.2シリーズは多言語大規模言語モデルで、1Bと3Bのパラメータ規模を持ち、多言語対話ユースケース向けに最適化されており、エージェント検索や要約タスクを含みます。
大規模言語モデル
Transformers 複数言語対応

L
AMead10
429
5
Mistral Nemo Base 2407 Chatml
Apache-2.0
Mistral-Nemo-Base-2407はMistral AIとNVIDIAが共同でトレーニングした120億パラメータの生成型テキスト事前学習モデルで、同規模またはより小規模のモデルを性能で凌駕しています。
大規模言語モデル
Transformers 複数言語対応

M
IntervitensInc
191
3
Mistral Nemo Base 2407
Apache-2.0
Mistral-Nemo-Base-2407はMistral AIとNVIDIAが共同でトレーニングした120億パラメータの生成型テキスト事前学習モデルで、同規模またはより小規模の既存モデルを性能面で凌駕しています。
大規模言語モデル
Transformers 複数言語対応

M
mistralai
44.76k
304
Llama 3.1 8B Instruct
Llama 3.1はMetaが発表した多言語大規模言語モデルシリーズで、8B、70B、405Bのパラメータ規模を持ち、8種類の言語とコード生成をサポートし、多言語対話シーンを最適化しています。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
5.7M
3,898
Mistral Nemo Instruct 2407
Apache-2.0
Mistral-Nemo-Instruct-2407はMistral-Nemo-Base-2407を基に命令ファインチューニングされた大規模言語モデルで、Mistral AIとNVIDIAが共同でトレーニングを行い、同規模またはそれ以下の既存モデルを性能で凌駕しています。
大規模言語モデル
Transformers 複数言語対応

M
mistralai
149.79k
1,519
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98