# 長文処理

Qwen3 4B GGUF
Apache-2.0
Qwen3-4Bは通義千問シリーズの最新大規模言語モデルで、4Bパラメータ規模を持ち、思考モードと非思考モードの切り替えをサポートし、推論、指示追従、多言語処理に優れています。
大規模言語モデル
Q
QuantFactory
341
1
Qwen3 235B A22B GPTQ Int4
Apache-2.0
Qwen3はQwenシリーズ最新世代の大規模言語モデルで、一連の高密度および混合専門家(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示遵守、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル Transformers
Q
Qwen
1,563
9
Qwen3 235B A22B
Apache-2.0
Qwen3はQwenシリーズ最新世代の大規模言語モデルで、一連の高密度および混合エキスパート(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル Transformers
Q
unsloth
421
2
Led Financial Summarization Genai15
金融テキスト要約タスクのためにファインチューニングされたLEDモデル、pszemraj/led-large-book-summaryを基に、ウォーリックビジネススクールGEN AI GROUP 15チームによって開発
テキスト生成 その他
L
fahil2631
15
0
Qwen3 4B GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、一連の高密度型と混合専門家(MoE)モデルを提供しています。大規模なトレーニングに基づき、Qwen3は推論、指示の遵守、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル
Q
Qwen
4,225
6
Qwen3 8B AWQ
Apache-2.0
Qwen3-8B-AWQは通義千問シリーズ最新世代の8.2Bパラメータを持つ大規模言語モデルで、AWQ 4-bit量子化技術を用いて推論効率を最適化しています。思考モードと非思考モードの切り替えをサポートし、優れた推論能力、指示追従能力、エージェント能力を備えています。
大規模言語モデル Transformers
Q
Qwen
13.99k
2
Qwen3 8B GPTQ Int4
Apache-2.0
Qwen3-4BはQwenシリーズの最新の大規模言語モデルで、思考モードの切り替え能力、強力な推論能力、優れた人間の嗜好の整合、卓越したエージェント能力、および多言語サポートを備えています。
大規模言語モデル Transformers
Q
JunHowie
2,365
2
Qwen3 14B 128K GGUF
Apache-2.0
Qwen3はQwenシリーズ最新世代の大規模言語モデルで、一連の高密度および混合専門家(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル 英語
Q
unsloth
10.20k
13
Qwen3 30B A3B FP8
Apache-2.0
Qwen3は通義千問シリーズの最新世代大規模言語モデルで、密モデルと混合専門家(MoE)モデルの完全なスイートを提供します。大規模なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル Transformers
Q
Qwen
107.85k
57
II Medical 7B Preview
Qwen/Qwen2.5-7B-Instructをファインチューニングした医療推論モデルで、複数の医療QAベンチマークテストで優れた性能を発揮
大規模言語モデル Transformers
I
Intelligent-Internet
112
9
Qwen3 4B 128K GGUF
Apache-2.0
Qwen3-4BはQwenシリーズの最新世代の大規模言語モデルで、4Bパラメータ規模を持ち、100以上の言語をサポートし、推論、指示追従、エージェント能力、多言語サポートの面で優れた性能を発揮します。
大規模言語モデル 英語
Q
unsloth
15.41k
17
Qwen3 14B Unsloth Bnb 4bit
Apache-2.0
Qwen3は通義千問シリーズ最新世代の大規模言語モデルで、全シリーズの密モデルと混合専門家(MoE)モデルを提供します。大規模なトレーニングに基づき、Qwen3は推論能力、指示追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル Transformers 英語
Q
unsloth
68.67k
5
Qwen3 14B GGUF
Apache-2.0
Qwen3はアリクラウドが開発した最新の大規模言語モデルで、強力な推論能力、指示追従、多言語サポートを備え、思考モードと非思考モードの切り替えをサポートしています。
大規模言語モデル 英語
Q
unsloth
81.29k
40
Qwen3 4B Unsloth Bnb 4bit
Apache-2.0
Qwen3-4BはQwenシリーズ最新世代の大規模言語モデルで、4Bパラメータ規模を持ち、100以上の言語をサポートし、推論、指示追従、エージェント能力において優れた性能を発揮します。
大規模言語モデル Transformers 英語
Q
unsloth
72.86k
5
Qwen3 4B GGUF
Apache-2.0
Qwen3-4BはQwenシリーズ最新世代の大規模言語モデルで、4Bパラメータ規模を持ち、100以上の言語をサポートし、卓越した推論、指示追従、エージェント能力を備えています。
大規模言語モデル 英語
Q
unsloth
59.40k
32
Chonky Modernbert Large 1
MIT
Chonkyはテキストを意味のあるセマンティックブロックにインテリジェントに分割できるTransformerモデルで、RAGシステムに適しています。
シーケンスラベリング Transformers 英語
C
mirth
54
2
Llm Jp Modernbert Base
Apache-2.0
modernBERT-baseアーキテクチャに基づく日本語大規模言語モデル、最大8192のシーケンス長をサポート、3.4TBの日本語コーパスで訓練
大規模言語モデル Transformers 日本語
L
llm-jp
1,398
5
Orpheus 3b 0.1 Ft.w8a8
Apache-2.0
Orpheus-3B-0.1-FT は因果言語モデルに基づくテキスト音声変換モデルで、効率的な量子化圧縮をサポートしています。
大規模言語モデル Transformers 英語
O
nytopop
173
0
Mistral Small 3.1 24B Instruct 2503 Quantized.w8a8
Apache-2.0
これはRed HatとNeural Magicによって最適化されたINT8量子化されたMistral-Small-3.1-24B-Instruct-2503モデルで、高速応答と低遅延シナリオに適しています。
Safetensors 複数言語対応
M
RedHatAI
833
2
Chonky Modernbert Base 1
MIT
Chonkyはテキストを意味のあるセマンティックブロックに分割するTransformerモデルで、RAGシステムに使用可能です。
シーケンスラベリング Transformers 英語
C
mirth
221
1
Shisa V2 Unphi4 14b
Apache-2.0
Shisa V2はShisa.AIによって訓練されたバイリンガル(日本語/英語)汎用チャットモデルで、日本語タスク能力の向上に注力しながら強力な英語能力を維持しています。
大規模言語モデル Transformers 複数言語対応
S
shisa-ai
62
3
Ruri V3 Reranker 310m
Apache-2.0
ModernBERT-Jaをベースに構築された日本語汎用リランキングモデルで、トップクラスの性能と長文処理能力を備えています
テキスト埋め込み 日本語
R
cl-nagoya
1,100
5
Longformer Base 4096 Bible
Apache-2.0
allenai/longformer-base-4096をファインチューニングした聖書テキスト関連度予測モデル
テキスト分類 Transformers 英語
L
ronenh24
32
1
Mizan Rerank V1
Apache-2.0
革新的なオープンソースモデルで、アラビア語の長文を卓越した効率と正確さでリランキングできます。
テキスト埋め込み 複数言語対応
M
ALJIACHI
167
1
Reranker ModernBERT Base Gooaq 1 Epoch 1995000
Apache-2.0
これはModernBERT-baseからファインチューニングされたクロスエンコーダーモデルで、テキストペアのスコア計算に使用され、テキスト再ランキングや意味検索タスクに適しています。
テキスト埋め込み 英語
R
ayushexel
30
0
Reranker ModernBERT Base Gooaq Bce
Apache-2.0
これはModernBERT-baseをファインチューニングしたクロスエンコーダーモデルで、テキストの再ランキングと意味検索タスクに使用されます。
テキスト埋め込み 英語
R
akr2002
16
1
Gemma 3 R1984 27B Q6 K GGUF
VIDraft/Gemma-3-R1984-27Bから変換されたGGUF形式モデルで、多言語テキスト生成をサポート
大規模言語モデル 複数言語対応
G
GrimsenClory
28
1
Mistral Small 3.1 24B Instruct 2503 FP8 Dynamic
Apache-2.0
これはMistral3アーキテクチャに基づく24Bパラメータの条件付き生成モデルで、FP8動的量子化により最適化されており、多言語テキスト生成と視覚理解タスクに適しています。
Safetensors 複数言語対応
M
RedHatAI
2,650
5
Qwen2.5 14B YOYO V5
Apache-2.0
Qwen2.5-YOYO第五世代モデル、複数の先進モデルの特徴を統合し、モデル統合式を最適化、100万トークンのコンテキストをサポート。
大規模言語モデル Safetensors 複数言語対応
Q
YOYO-AI
33
3
Reranker ModernBERT Base Gooaq Bce
Apache-2.0
これはModernBERT-baseからファインチューニングされたクロスエンコーダーモデルで、テキスト再ランキングと意味検索タスクに使用されます。
テキスト埋め込み 英語
R
tomaarsen
483
2
Olmo 2 0325 32B Pre GGUF
Apache-2.0
OLMo-2-0325-32BはAllenAIによって開発された大規模言語モデルで、320億のパラメータを持ち、様々なテキスト生成タスクに適しています。
大規模言語モデル
O
deltanym
147
2
Trillion 7B Preview
Apache-2.0
Trillion-7Bプレビュー版は多言語対応の大規模言語モデルで、英語、韓国語、日本語、中国語をサポートし、低い計算量を維持しながら、より高い計算量を必要とするモデルと競合する性能を実現しています。
大規模言語モデル Transformers 複数言語対応
T
trillionlabs
6,864
82
Gemma 3 12b It GGUF
Gemma-3-12b-it は Google が開発した大規模言語モデルで、transformer アーキテクチャに基づき、テキスト生成タスクに特化しています。
大規模言語モデル
G
second-state
583
1
EXAONE Deep 2.4B AWQ
その他
EXAONE Deepシリーズモデルは数学やプログラミングなどの推論タスクで優れた性能を発揮し、本モデルは24億パラメータのAWQ量子化バージョンです
大規模言語モデル Transformers 複数言語対応
E
LGAI-EXAONE
751
16
Kyro N1.1 7B
その他
Kyro-n1.1はKyro-n1の強化バージョンで、Qwen2.5-7B-Instructを基に構築され、推論能力、理解力、応答精度が最適化されています。
大規模言語モデル Transformers 複数言語対応
K
open-neo
470
4
Croguana RC2 Gguf
Mistralアーキテクチャを基にしたクロアチア語テキスト生成モデル、Unslothでトレーニングを加速
大規模言語モデル その他
C
Shome
55
1
Qwen2.5 QwQ 35B Eureka Cubed
QwQ-32Bの強化版で、あらゆる使用シナリオに適しており、卓越した推論と出力能力を備えています。
大規模言語モデル Transformers その他
Q
DavidAU
591
9
Thor V2.5 8b FANTASY FICTION 128K Q4 K M GGUF
これはGGUF形式に変換された80億パラメータ規模のファンタジー小説専用言語モデルで、128Kのコンテキスト長をサポートします。
大規模言語モデル 英語
T
MrRobotoAI
22
0
Frigg V2 8b ACADEMIC 128K Q4 K M GGUF
Frigg-v2-8b-ACADEMIC-128K-Q4_K_M-GGUF は GGUF フォーマットに基づく 8B パラメータの大規模言語モデルで、様々なテキスト生成タスクに適しています。
大規模言語モデル 英語
F
MrRobotoAI
18
0
L3.3 Cu Mai R1 70b
Llama3アーキテクチャに基づく70Bパラメータの大規模言語モデル、特別な最適化処理を施した
大規模言語モデル Safetensors
L
Steelskull
164
14
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase