# 長文推論

Pocketdoc Dans PersonalityEngine V1.3.0 12b GGUF
Apache-2.0
llama.cppで量子化された12Bパラメータの多言語大規模言語モデルで、ロールプレイ、ストーリー作成、および複数分野の専門タスクをサポート
大規模言語モデル
P
bartowski
1,027
3
Dans PersonalityEngine V1.3.0 12b Q6 K GGUF
Apache-2.0
このモデルはPocketDoc/Dans-PersonalityEngine-V1.3.0-12bを変換したGGUF形式モデルで、多言語・多タスクに対応し、汎用目的、ロールプレイ、ストーリー創作などのシナリオに適しています。
大規模言語モデル Transformers
D
NikolayKozloff
165
2
Qwq 32B ArliAI RpR V4
Apache-2.0
QwQ-32B-ArliAI-RpR-v4はArliAIが提供する高性能なロールプレイとクリエイティブライティング向けモデルで、QwQ-32Bをファインチューニングし、反復を減らし創造的な出力を向上させることに重点を置いています。
大規模言語モデル Transformers 英語
Q
ArliAI
240
16
Qwen3 30B A3B Quantized.w4a16
Apache-2.0
Qwen3-30B-A3BのINT4量子化バージョン、重み量子化によりディスクとGPUメモリ要件を75%削減し、高性能を維持。
大規模言語モデル Transformers
Q
RedHatAI
379
2
32b Glm4 Dans Personality Engine V1.3.0 TestArticle 1
MIT
THUDM/GLM-4-32B-Base-0414モデルをDans-DiscountModels/pretokenization-test-4データセットでファインチューニングした大規模言語モデル
大規模言語モデル Transformers
3
Dans-DiscountModels
38
2
Qwen3 14B GPTQ Int4
Apache-2.0
Qwen3-4Bは通義千問シリーズ最新の40億パラメータ大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、推論、多言語、エージェントタスクで優れた性能を発揮します。
大規模言語モデル Transformers
Q
JunHowie
640
2
Qwen3 1.7B Q8 0 GGUF
Apache-2.0
Qwen3-1.7B-Q8_0-GGUFはQwen/Qwen3-1.7Bを変換したGGUF形式モデルで、テキスト生成タスクをサポートし、多言語対応と効率的な推論能力を備えています。
大規模言語モデル
Q
Triangle104
277
1
Qwen3 235B A22B
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、密モデルと混合エキスパート(MoE)モデルの完全なスイートを提供し、推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を実現しています。
大規模言語モデル Transformers
Q
Qwen
159.10k
849
Qwen3 14B
Apache-2.0
Qwen3-14Bは通義千問シリーズの最新大規模言語モデルで、148億のパラメータを持ち、思考モードと非思考モードの切り替えをサポートし、推論、指示の遵守、エージェント能力において優れた性能を発揮します。
大規模言語モデル Transformers
Q
Qwen
297.02k
152
Qwen3 8B
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新8Bパラメータ版で、思考モードと非思考モードのシームレスな切り替えをサポートし、強力な推論、指示追従、インテリジェントエージェント能力を備えています。
大規模言語モデル Transformers
Q
Qwen
550.09k
294
Qwen3 4B
Apache-2.0
Qwen3-4Bは通義千問シリーズの最新大規模言語モデルで、40億パラメータを搭載し、思考モードと非思考モードの切り替えをサポート、強力な推論能力、コマンド追従、多言語対応を備えています。
大規模言語モデル Transformers
Q
Qwen
307.26k
195
Ring Lite Linear Preview
MIT
玲瓏線形プレビュー版はInclusionAIによってオープンソースで公開されたハイブリッド線形スパース大規模言語モデルで、総パラメータ数は17.1B、活性化パラメータ数は3.0Bです。このモデルはハイブリッド線形アテンションメカニズムに基づいて長文推論を実現し、推論プロセスにおいてほぼ線形の計算複雑性とほぼ一定の空間複雑性を持ちます。
大規模言語モデル 複数言語対応
R
inclusionAI
25
8
360zhinao3 7B O1.5
Apache-2.0
360智脳3-7B-O1.5は奇虎360がオープンソース化した長思考連鎖モデルで、360智脳3-7B-Instructをファインチューニングしており、複雑な推論タスクをサポートします。
大規模言語モデル Transformers 複数言語対応
3
qihoo360
35
3
Gemma 3 12b It Q8 0 GGUF
このモデルはgoogle/gemma-3-12b-itから変換されたGGUF形式モデルで、llama.cppフレームワークに適しています。
大規模言語モデル
G
NikolayKozloff
89
1
Serpens Opus 14B Exp
Apache-2.0
Serpens-Opus-14B-ExpはQwen 2.5 14Bアーキテクチャに基づいて設計された140億パラメータのモデルで、推論能力を強化し、汎用推論や質問応答タスクに適しています。
大規模言語モデル Transformers 複数言語対応
S
prithivMLmods
158
1
Deepseek R1 AWQ
MIT
DeepSeek R1モデルのAWQ量子化バージョン、float16オーバーフロー問題を最適化し、効率的な推論デプロイをサポート
大規模言語モデル Transformers 複数言語対応
D
cognitivecomputations
30.46k
77
Modernbert Large Nli
Apache-2.0
ModernBERT-largeモデルをベースに、マルチタスクファインチューニングで最適化された自然言語推論モデルで、ゼロショット分類とNLIタスクで優れた性能を発揮します。
大規模言語モデル Transformers 複数言語対応
M
tasksource
61.52k
5
Deberta Small Long Nli
DeBERTaアーキテクチャに基づく小型ゼロショット分類モデル。長文自然言語推論タスク向けに最適化され、Web対応のためONNX形式に変換済み
テキスト分類 Transformers
D
onnx-community
19
1
Deberta Base Long Nli
Apache-2.0
DeBERTa-v3-baseモデルをベースに、コンテキスト長を1280に拡張し、tasksourceデータセットで25万ステップのファインチューニングを実施。自然言語推論とゼロショット分類タスクに特化。
大規模言語モデル Transformers
D
tasksource
541
23
Phi 3 Small 128k Instruct
MIT
Phi-3-Small-128K-Instructは70億パラメータの軽量オープンソースモデルで、高品質と強力な推論能力に焦点を当て、128Kの長文コンテキストをサポートし、常識、言語理解、数学、コードなどのタスクで優れた性能を発揮します。
大規模言語モデル Transformers その他
P
microsoft
7,194
176
Phi 3 Medium 128k Instruct
MIT
Phi-3-Medium-128K-Instructは140億パラメータの軽量オープンソースモデルで、高品質と強力な推論能力に焦点を当て、128Kのコンテキスト長をサポートします。
大規模言語モデル Transformers その他
P
microsoft
17.52k
381
Deberta Small Long Nli
Apache-2.0
DeBERTa-v3-smallモデルをベースに、コンテキスト長を1680トークンに拡張し、tasksourceデータセットでファインチューニングされた、長文自然言語推論タスクに適したモデル
大規模言語モデル Transformers 複数言語対応
D
tasksource
40.85k
42
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase