# 32k長文コンテキスト

Qwen3 4B Mishima Imatrix GGUF
Apache-2.0
Qwen3-4BベースのMishima Imatrix量子化バージョン、特定データセットで散文スタイル生成能力を強化
大規模言語モデル
Q
DavidAU
105
2
Phi 4 Reasoning Plus GGUF
MIT
Phi-4-reasoning-plus はマイクロソフトが開発した推論能力を強化した大規模言語モデルで、複雑な数学問題や多段階推論タスクに最適化されています。
大規模言語モデル 複数言語対応
P
lmstudio-community
5,205
4
Arcee Blitz
Apache-2.0
Mistralアーキテクチャに基づく240億パラメータモデルで、DeepSeekモデルから蒸留され、高速かつ効率的な処理を実現することを目的としています。
大規模言語モデル Transformers
A
arcee-ai
4,923
74
Mistral Small 24B Instruct 2501 4.0bpw Exl2
Apache-2.0
Mistral Small 3 (2501) は240億パラメータを持つ大規模言語モデルで、70B以下の小型モデルカテゴリーで優れた性能を発揮し、多言語サポートと高度な推論能力を備えています。
大規模言語モデル Transformers 複数言語対応
M
matatonic
15
1
Norwai Mistral 7B Instruct
Mistral-7Bを基にノルウェー語命令チューニングを行った大規模言語モデル。ノルウェー科学技術大学NowAI研究センターとパートナーが開発
大規模言語モデル
N
NorwAI
18.62k
10
Qwen2 7B Multilingual RP
Apache-2.0
Qwen2-7Bは多言語対応のロールプレイング大規模言語モデルで、英語、韓国語、日本語、中国語、スペイン語をサポートし、32kのコンテキスト長を有しています。
大規模言語モデル Transformers 複数言語対応
Q
maywell
646
57
It 5.3 Fp16 32k
Apache-2.0
サイクロン0.5*はロシア語と英語をサポートするオープンソースの大規模言語モデルで、RoPEコンテキストウィンドウを32kに拡張し、JSON処理とマルチターン対話能力を最適化しました
大規模言語モデル Transformers 複数言語対応
I
Vikhrmodels
74
11
Dark Miqu 70B
その他
ダークスタイルのクリエイティブライティングに特化した700億パラメータの大規模言語モデル。32kトークンのコンテキスト長をサポート、miqu-1-70bをベースに開発。ダーク/残酷ファンタジー題材の創作に優れる
大規模言語モデル Transformers
D
jukofyork
46
30
Mistral 7B Instruct V0.2
Apache-2.0
Mistral-7B-Instruct-v0.2はMistral-7B-v0.2を基に命令微調整された大規模言語モデルで、32kのコンテキストウィンドウをサポートし、スライディングウィンドウ注意機構を除去しています。
大規模言語モデル Transformers
M
mistralai
1.1M
2,737
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase