# 128k長文処理

Qwen3 30B A3B Llamafile
Apache-2.0
Qwen3はQwenシリーズ最新世代の大規模言語モデルで、一連の高密度および混合専門家(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル
Q
Mozilla
143
1
Qwen3 4B Llamafile
Apache-2.0
Qwen3-4BはQwenシリーズ最新世代の大規模言語モデルで、4Bパラメータ規模を持ち、128kコンテキストウィンドウと100以上の言語をサポートし、推論、指示追従、エージェント能力において優れた性能を発揮します。
大規模言語モデル
Q
Mozilla
995
2
Llama 3.1 8B Instruct
Meta Llama 3.1シリーズの多言語大規模言語モデルで、8Bパラメータ規模を含み、多言語対話ユースケースに最適化され、8言語をサポートします。
大規模言語モデル Safetensors 複数言語対応
L
RedHatAI
292
1
Granite 4.0 Tiny Base Preview
Apache-2.0
Granite-4.0-Tiny-Base-PreviewはIBMが開発した70億パラメータの混合専門家(MoE)言語モデルで、128kトークンのコンテキストウィンドウを持ち、Mamba-2技術で表現力を強化しています。
大規模言語モデル Transformers
G
ibm-granite
156
12
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1シリーズは多言語大規模言語モデル(LLMs)のコレクションで、8B、70B、405Bサイズの事前学習済みおよび指示調整済み生成モデルを含みます。8Bバージョンは多言語対話ユースケース向けに最適化されており、一般的なベンチマークテストで優れた性能を発揮します。
大規模言語モデル 複数言語対応
L
unsloth
4,071
6
Gemma 3 27B It Qat GGUF
Googleが提供するGemma 3 27B ITモデルは、様々なテキスト生成や画像理解タスクに適しており、128kトークンのコンテキスト長とマルチモーダル画像処理をサポートします。
画像生成テキスト
G
lmstudio-community
41.35k
8
Dewey En Beta
MIT
デューイはModernBERTアーキテクチャに基づく新しい長文埋め込みモデルで、128kのコンテキストウィンドウをサポートし、長文書検索タスクで優れた性能を発揮します。
テキスト埋め込み Transformers 英語
D
infgrad
447
14
Gemma 3 4b It MAX NEO Imatrix GGUF
Apache-2.0
GoogleのGemma-3モデルを基にした究極の量子化バージョンで、NEO Imatrix技術により性能が強化され、128kのコンテキスト長をサポートし、全シナリオタスクに適しています
大規模言語モデル
G
DavidAU
2,558
7
Qwen2.5 QwQ 37B Eureka Triple Cubed
Apache-2.0
QwQ-32Bの強化版で、'立方'および'三重立方'手法により推論と出力能力を向上させ、128kのコンテキストをサポートします。
大規模言語モデル Transformers その他
Q
DavidAU
210
5
Reformed Christian Bible Expert 12B
Apache-2.0
改革派神学と聖書研究に最適化された言語モデル。Mistral-Nemo-Instruct-2407を基盤に構築され、卓越した神学的推論能力を備え、128kトークンのコンテキストウィンドウをサポート。
大規模言語モデル
R
sleepdeprived3
67
6
Llama 3.2 4X3B MOE Ultra Instruct 10B GGUF
Apache-2.0
Llama 3.2ベースのエキスパート混合モデルで、4つの3Bモデルを統合して10Bパラメータモデルを形成し、128kのコンテキスト長をサポート、インストラクション追従と全シナリオ生成に優れています。
大規模言語モデル 英語
L
DavidAU
277
7
Llama 3.3 70B Instruct GGUF
Llama-3.3-70B-InstructはMetaがリリースした多言語大規模言語モデルで、多言語対話ユースケースに最適化されており、複数の業界ベンチマークで優れた性能を発揮します。
大規模言語モデル Transformers 英語
L
unsloth
7,922
65
Llama 3.2 1B Instruct AWQ
Llama 3.2シリーズは多言語大規模言語モデルで、1Bと3Bのパラメータ規模を持ち、多言語対話ユースケース向けに最適化されており、エージェント検索や要約タスクを含みます。
大規模言語モデル Transformers 複数言語対応
L
AMead10
429
5
Mistral Nemo Base 2407 Chatml
Apache-2.0
Mistral-Nemo-Base-2407はMistral AIとNVIDIAが共同でトレーニングした120億パラメータの生成型テキスト事前学習モデルで、同規模またはより小規模のモデルを性能で凌駕しています。
大規模言語モデル Transformers 複数言語対応
M
IntervitensInc
191
3
Mistral Nemo Base 2407
Apache-2.0
Mistral-Nemo-Base-2407はMistral AIとNVIDIAが共同でトレーニングした120億パラメータの生成型テキスト事前学習モデルで、同規模またはより小規模の既存モデルを性能面で凌駕しています。
大規模言語モデル Transformers 複数言語対応
M
mistralai
44.76k
304
Llama 3.1 8B Instruct
Llama 3.1はMetaが発表した多言語大規模言語モデルシリーズで、8B、70B、405Bのパラメータ規模を持ち、8種類の言語とコード生成をサポートし、多言語対話シーンを最適化しています。
大規模言語モデル Transformers 複数言語対応
L
meta-llama
5.7M
3,898
Mistral Nemo Instruct 2407
Apache-2.0
Mistral-Nemo-Instruct-2407はMistral-Nemo-Base-2407を基に命令ファインチューニングされた大規模言語モデルで、Mistral AIとNVIDIAが共同でトレーニングを行い、同規模またはそれ以下の既存モデルを性能で凌駕しています。
大規模言語モデル Transformers 複数言語対応
M
mistralai
149.79k
1,519
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase