# 中国語サポート

Josiefied Qwen3 4B Abliterated V1 6bit
これはQwen3-4BモデルをMLXフォーマットに変換した6ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
J
mlx-community
15
1
Josiefied Qwen3 1.7B Abliterated V1 4bit
Qwen3-1.7Bをベースにした4ビット量子化バージョン、MLXフレームワーク向けの軽量大規模言語モデル
大規模言語モデル
J
mlx-community
135
2
Hidream I1 Fast Nf4
MIT
HiDream-I1は170億パラメータを持つオープンソースの画像生成基盤モデルで、4ビット量子化バージョンは16GB VRAMで動作し、高速かつ高品質な画像生成を実現します。
画像生成
H
azaneko
19.22k
7
Light R1 14B DS GGUF
Apache-2.0
Light-R1-14B-DSは14Bパラメータ規模の量子化大規模言語モデルで、テキスト生成タスクをサポートし、リソースが限られた環境での効率的な推論に適しています。
大規模言語モデル
L
qihoo360
2,784
9
Qwen2 Vl Tiny Random
これはQwen2-VL-7B-Instruct設定に基づきランダム初期化された小型デバッグモデルで、視覚言語タスク用です
画像生成テキスト Transformers
Q
yujiepan
27
1
Wizardlm 2 7B Abliterated GGUF
Apache-2.0
WizardLM-2-7B-abliteratedのLlamacpp imatrix量子化バージョンで、さまざまな量子化オプションを提供し、異なるハードウェア構成に対応します。
大規模言語モデル
W
bartowski
2,561
13
Lawyer Llama 13b V2
Lawyer LLaMA はLLaMAアーキテクチャに基づく法律分野の大規模言語モデルで、中国語の法律タスクに特化しています。
大規模言語モデル Transformers 中国語
L
pkupie
200
12
Llama 160M Chat V1
Apache-2.0
これは160MパラメータのLlamaチャットモデルで、JackFram/llama-160mを微調整したもので、テキスト生成タスクに特化しています。
大規模言語モデル Transformers 英語
L
Felladrin
586
19
Storytime 13B GPTQ
Storytime 13B はLLaMAアーキテクチャに基づく大規模言語モデルで、中国語テキスト生成タスク、特にストーリー作成に特化しています。
大規模言語モデル Transformers 英語
S
TheBloke
134
37
Blip Image Captioning
これはBLIPアーキテクチャに基づく画像キャプション生成モデルで、入力された画像に対して簡潔なテキスト説明を生成できます。
画像生成テキスト Transformers
B
nnpy
17
6
Totally Harmless Model
これは一般的な旧モデルで、具体的な機能や用途は明記されていません。
大規模言語モデル Transformers 英語
T
ykilcher
110
15
Meme
ソーシャルメディアやインスタントメッセージングアプリに適した、スタンプの説明テキストを分類するためのモデルです。
テキスト分類 Transformers
M
AmrSheta
29
1
Electra Small Finetuned Squadv2
Apache-2.0
Electra-small-discriminatorモデルをSQuAD v2.0データセットでファインチューニングした質問応答モデルで、回答可能な問題と回答不可能な問題を区別するシナリオに適しています
質問応答システム Transformers 英語
E
mrm8488
51
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase