# 中国語テキスト生成

Deepseek R1 0528 Qwen3 8B 6bit
MIT
DeepSeek-R1-0528-Qwen3-8Bモデルを基に変換された6ビット量子化バージョンで、MLXフレームワークのテキスト生成タスクに適しています。
大規模言語モデル
D
mlx-community
582
1
Deepseek R1 0528 4bit
DeepSeek-R1-0528-4bit は DeepSeek-R1-0528 をベースに変換された4ビット量子化モデルで、MLXフレームワーク向けに最適化されています。
大規模言語モデル
D
mlx-community
157
9
Qwen3 235B A22B 3bit DWQ
Apache-2.0
これはQwen/Qwen3-235B-A22Bを基に変換された3ビット深度量子化モデルで、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
41
2
Qwen3 235B A22B Mixed 3 6bit
Apache-2.0
これはQwen/Qwen3-235B-A22Bモデルを変換した混合3-6ビット量子化バージョンで、Apple MLXフレームワーク向けの効率的な推論に適しています。
大規模言語モデル
Q
mlx-community
100
2
Qwen3 30B A3B 4bit DWQ 05082025
Apache-2.0
これはQwen/Qwen3-30B-A3BからMLX形式に変換された4ビット量子化モデルで、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
240
5
Qwen3 30B A3B 4bit DWQ
Apache-2.0
これはQwen3-30B-A3Bモデルを基にした4ビット量子化バージョンで、6ビット量子化から4ビットに蒸留したカスタムDWQ量子化技術を使用して作成され、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
561
19
Qwen3 8B Q4 K M GGUF
Apache-2.0
これはQwen3-8BモデルのGGUFフォーマット版で、llama.cppフレームワークに適しており、テキスト生成タスクをサポートします。
大規模言語モデル Transformers
Q
ufoym
342
3
Mlabonne Qwen3 8B Abliterated GGUF
これはQwen3-8B-abliteratedモデルの量子化バージョンで、llama.cppを使用して量子化されており、テキスト生成タスクに適しています。
大規模言語モデル
M
bartowski
6,892
5
Qwen Qwen3 4B GGUF
Qwenチームが提供するQwen3-4BのLlamacpp imatrix量子化バージョンで、複数の量子化タイプをサポートし、テキスト生成タスクに適しています。
大規模言語モデル
Q
bartowski
10.58k
9
Doge 20M Chinese
Apache-2.0
Dogeモデルは動的マスクアテンションメカニズムを使用してシーケンス変換を行い、多層パーセプトロンまたはクロスドメインエキスパート混合を選択して状態変換を行うことができます。
大規模言語モデル Transformers 複数言語対応
D
wubingheng
65
2
Gemma 3 4b Pt Q4 0 GGUF
これはGoogle Gemma 3.4Bパラメータモデルを変換したGGUF形式のモデルで、テキスト生成タスクに適しています。
大規模言語モデル
G
ngxson
74
1
Deepseek R1 ReDistill Qwen 7B V1.1 Q8 0 GGUF
MIT
このモデルはDeepSeek-R1-ReDistill-Qwen-7B-v1.1を変換したGGUF形式モデルで、テキスト生成タスクに適しています。
大規模言語モデル
D
NikolayKozloff
44
2
Llama 3.1 0x Mini Q8 0 GGUF
これはozone-ai/llama-3.1-0x-miniから変換されたGGUF形式モデルで、llama.cppフレームワークに適しています。
大規模言語モデル
L
NikolayKozloff
19
1
Gpt2 Xlarge Chinese Cluecorpussmall
CLUECorpusSmallで事前学習された軽量中国語GPT2モデル、6層アーキテクチャを採用し、中国語テキスト生成タスクに最適化
大規模言語モデル Transformers 中国語
G
uer
315
5
Gpt2 Medium Chinese Cluecorpussmall
CLUECorpusSmallで事前学習された軽量中国語GPT2モデル、6層/768次元構造、中国語テキスト生成に最適化
大規模言語モデル Transformers 中国語
G
uer
863
3
Randeng T5 77M
Apache-2.0
自然言語変換タスクに優れた中国語版mT5-small軽量モデル
大規模言語モデル Transformers 中国語
R
IDEA-CCNL
104
3
Wenzhong GPT2 110M
Apache-2.0
自然言語生成タスクに特化した中国語版GPT2-Smallモデル
大規模言語モデル Transformers 中国語
W
IDEA-CCNL
2,478
28
Bart Base Chinese
中国語の理解と生成を対象とした事前学習済みの非平衡Transformerモデルで、テキスト-to-テキスト生成タスクをサポートします。
大規模言語モデル Transformers 中国語
B
fnlp
6,504
99
Gpt2 Chinese Cluecorpussmall
中国語GPT2-distilモデル、CLUECorpusSmallデータセットで事前学習済み、中国語テキスト生成タスクに適しています
大規模言語モデル 中国語
G
uer
41.45k
207
Gpt2 Wechsel Chinese
MIT
WECHSELメソッドを使用してトレーニングされた中国語GPT-2モデルで、サブワード埋め込みの効果的な初期化により単一言語モデルの言語間移行を実現。
大規模言語モデル Transformers 中国語
G
benjamin
19
4
Gpt2 Distil Chinese Cluecorpussmall
CLUECorpusSmallで事前学習された中国語GPT2軽量モデル、パラメータ規模は6層/768隠れ層、中国語テキスト生成タスクに適しています
大規模言語モデル 中国語
G
uer
1,043
20
Cpt Large
中国語の理解と生成に向けた事前学習済み非平衡Transformerモデルで、様々な自然言語処理タスクをサポート
大規模言語モデル Transformers 中国語
C
fnlp
122
16
Gpt2 Chinese Poem
GPT2アーキテクチャに基づく中国語古詩生成モデルで、UER-pyで事前学習され、中国古詩の生成をサポートします。
大規模言語モデル 中国語
G
uer
1,905
38
Bart Large Chinese
BARTアーキテクチャに基づく中国語事前学習モデルで、テキスト生成と理解タスクをサポートし、復旦大学自然言語処理研究所からリリース
大規模言語モデル Transformers 中国語
B
fnlp
638
55
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase