# 長文脈推論

Deepseek R1 0528 AWQ
MIT
DeepSeek R1 0528のAWQ量子化モデルで、vLLMを使用して8基の80GB GPUでフルコンテキスト長で実行可能です。
大規模言語モデル Transformers 複数言語対応
D
cognitivecomputations
145
7
Qwenlong L1 32B
Apache-2.0
QwenLong-L1は強化学習でトレーニングされた長文脈推論モデルで、7つの長文脈文書質問応答ベンチマークテストで優れた性能を発揮しています。
大規模言語モデル Transformers
Q
Tongyi-Zhiwen
683
106
Llama 3.1 Nemotron Nano 4B V1.1 GGUF
その他
NVIDIAがリリースした40億パラメータ規模の大規模言語モデルで、128kトークンのコンテキスト長をサポートし、推論、対話、RAGなどのタスクに最適化されています
大規模言語モデル 英語
L
lmstudio-community
588
1
AM Thinking V1 GGUF
Apache-2.0
AM Thinking v1はA-Mチームによって開発されたQwen 2.5-32B-Baseベースの大規模言語モデルで、推論能力が強化され、132kトークンのコンテキスト長をサポートします。
大規模言語モデル
A
lmstudio-community
306
1
M1ndb0t 0M3N Q4 K M GGUF
Qwen3-14B大規模言語モデルを基にした高性能GGUF変換バージョンで、創造的推論、深層夢ロジック、エージェントインタラクション、多言語指示に最適化されています
大規模言語モデル 英語
M
TheMindExpansionNetwork
18
1
Dots.llm1.inst
MIT
dots.llm1は大規模なMoEモデルで、総パラメータ1420億のうち140億のパラメータを活性化し、性能は最先端のモデルに匹敵します。
大規模言語モデル Transformers 複数言語対応
D
rednote-hilab
440
97
Dans PersonalityEngine V1.3.0 12b
Apache-2.0
50以上の専門データセットで微調整された多機能モデル、クリエイティブタスクや技術的課題に強く、10言語をサポート
大規模言語モデル Transformers
D
PocketDoc
112
13
Dans PersonalityEngine V1.3.0 24b
Apache-2.0
50以上の専門データセットで微調整された多機能モデルシリーズで、創造的タスクと技術的課題の両方で優れたパフォーマンスを発揮
大規模言語モデル Transformers
D
PocketDoc
402
29
Qwen2.5 Math 7B RoPE 300k
Apache-2.0
Qwen2.5-Math-7B-RoPE-300kはQwen2.5-Math-7Bをベースとしたバリエーションで、回転位置符号化の基本周波数を調整することで、文脈長を32kトークンまで拡張しています。
大規模言語モデル Transformers 英語
Q
open-r1
4,528
2
Phi 4 Reasoning Plus
MIT
Phi-4推論強化版はマイクロソフトリサーチが開発した140億パラメータのオープンソース推論モデルで、教師あり微調整と強化学習による最適化を経ており、数学、科学、プログラミング分野の高度な推論能力に特化しています。
大規模言語モデル Transformers 複数言語対応
P
unsloth
189
2
Qwen3 4B NEO Imatrix Max GGUF
Apache-2.0
これはQwen3-4Bモデルを基にしたNEO Imatrix量子化バージョンで、BF16フォーマットのMAX出力テンソルを使用して推論と出力生成能力を向上させ、32kの文脈長をサポートします。
大規模言語モデル
Q
DavidAU
1,152
3
Qwen3 30B A3B Base
Apache-2.0
Qwen3-30B-A3B-Baseは通義千問シリーズ最新世代の30.5Bパラメータ規模の混合エキスパート(MoE)大規模言語モデルで、119言語と32kの文脈長をサポートします。
大規模言語モデル Transformers
Q
Qwen
9,745
33
Qwen3 0.6B
Apache-2.0
Qwen3-0.6Bは通義千問シリーズ最新世代の0.6Bパラメータ規模の大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、強力な推論、命令追従、インテリジェントエージェント能力を備えています。
大規模言語モデル Transformers
Q
Qwen
497.09k
264
Delta Pavonis Qwen 14B
Apache-2.0
Qwen2.5 14Bモーダルアーキテクチャに基づいて設計された強化推論モデルで、汎用推論と質問応答シナリオを最適化し、128K文脈と8K出力をサポート
大規模言語モデル Transformers
D
prithivMLmods
547
3
Llama 3 70b Arimas Story RP V1.6 4.0bpw H6 Exl2
Llama 3 70Bアーキテクチャを基にしたマージモデルで、ストーリー生成とロールプレイに最適化されており、長文脈ウィンドウをサポート
大規模言語モデル Transformers
L
kim512
20
1
Gemma 3 R1984 4B
Gemma3-R1984-4BはGoogleのGemma-3-4Bモデルを基に構築された強力なエージェントAIプラットフォームで、マルチモーダルファイル処理と深層研究能力をサポートします。
画像生成テキスト Transformers 複数言語対応
G
ginipick
44
4
Granite 3.3 2b Instruct GGUF
Apache-2.0
IBM-Graniteの20億パラメータ指導モデル、多言語と長文脈タスクをサポートし、構造化推論能力を備える。
大規模言語モデル
G
lmstudio-community
444
2
Llama 4 Maverick 17B 128E Instruct FP8
その他
Llama 4シリーズはMetaが開発したマルチモーダルAIモデルで、テキストと画像のインタラクションをサポートし、混合エキスパートアーキテクチャ(MoE)を採用しており、テキストと画像理解において業界をリードする性能を発揮します。
テキスト生成画像 Transformers 複数言語対応
L
meta-llama
64.29k
107
Raptor X5 UIGEN
Apache-2.0
Raptor-X5-UIGENはQwen 2.5 14Bモダリティアーキテクチャを基に設計された大規模言語モデルで、UI設計、ミニマルコーディング、コンテンツ集約型開発に特化し、強化された推論能力と構造化された応答生成を備えています。
大規模言語モデル Transformers 英語
R
prithivMLmods
17
2
Granite 3.2 2b Instruct GGUF
Apache-2.0
Granite-3.2-2B-Instructは20億パラメータの長文脈AIモデルで、思考推論能力に特化してファインチューニングされています。Granite-3.1-2B-Instructを基盤とし、緩やかなライセンスのオープンソースデータセットと内部生成の合成データを混合使用してトレーニングされ、推論タスクのパフォーマンス向上を目的としています。
大規模言語モデル
G
Mungert
754
3
Theta Lyrae Qwen 14B
Apache-2.0
Theta-Lyrae-Qwen-14BはQwen 2.5 14Bモーダルアーキテクチャを基に設計された140億パラメータモデルで、汎用推論と質問応答能力を最適化し、文脈理解、論理的推論、多段階問題解決において優れた性能を発揮します。
大規模言語モデル Transformers
T
prithivMLmods
21
2
Galactic Qwen 14B Exp2
Apache-2.0
Galactic-Qwen-14B-Exp2はQwen 2.5 14Bアーキテクチャに基づいて設計された大規模言語モデルで、推論能力の強化に焦点を当て、文脈理解、論理的推論、多段階問題解決に優れています。
大規模言語モデル Transformers 複数言語対応
G
prithivMLmods
558
4
Romboultima 32B
MIT
RombUltima-32B は融合モデルで、Rombos-LLM-V2.5-Qwen-32b と Ultima-32B の利点を組み合わせ、推論能力、多言語理解能力、および多輪対話のパフォーマンスを最適化しています。
大規模言語モデル Transformers
R
FINGU-AI
75
4
Modernbert Base Nli
Apache-2.0
ModernBERTはマルチタスクソースの自然言語推論(NLI)タスクでファインチューニングされたモデルで、ゼロショット分類と長文脈推論に優れています。
大規模言語モデル Transformers 複数言語対応
M
tasksource
1,867
20
Smart Lemon Cookie 7B GGUF
GGUF形式に基づく無審査ロールプレイングモデルで、優れた推論と文脈追跡能力を持ち、ローカルAIチャットアプリに適しています。
大規模言語モデル Transformers
S
backyardai
811
9
C4ai Command R Plus Imat.gguf
C4AI Command R+は1040億パラメータの多言語大規模言語モデルで、検索拡張生成(RAG)とツール呼び出しをサポートし、推論、要約、質問応答などのタスクに最適化されています。
大規模言語モデル
C
dranger003
2,783
140
C4ai Command R Plus
Command R+はCohere Labsが提供する1040億パラメータのオープンウェイト研究版モデルで、検索拡張生成(RAG)とツール使用機能を備え、多言語対応と多段階タスク自動化をサポートします。
大規模言語モデル Transformers 複数言語対応
C
CohereLabs
8,002
1,719
Codellama 70b Hf
Code LlamaはMetaが提供する70億から700億パラメータ規模のコード生成・理解モデルシリーズで、本モデルは700億パラメータのベーシック版
大規模言語モデル Transformers その他
C
meta-llama
184
24
Einstein V4 7B
その他
Einstein-v4-7BはMistral-7B-v0.1を多様な科学データセットで完全にファインチューニングした大規模言語モデルで、STEM分野のタスクに特化しています
大規模言語モデル Transformers 英語
E
Weyaxi
43
49
Tinyllama 1.1B 32k
Apache-2.0
TinyLlama-1.1Bベースの32k文脈ファインチューニング版、rope thetaの拡張により長文脈処理能力を実現
大規模言語モデル Transformers 英語
T
Doctor-Shotgun
51
29
Mixtral 8x7B Instruct V0.1
Apache-2.0
Mixtral-8x7Bは事前学習済みの生成的スパース混合エキスパートモデルで、ほとんどのベンチマークテストでLlama 2 70Bを上回る性能を示しています。
大規模言語モデル Transformers 複数言語対応
M
mistralai
505.97k
4,397
Flan Ul2
Apache-2.0
T5アーキテクチャに基づくエンコーダー-デコーダーモデルで、Flanプロンプトチューニングにより最適化され、多言語タスク処理をサポート
大規模言語モデル Transformers 複数言語対応
F
google
3,350
554
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase