# テキスト生成

E Star 12B V0.1
これはHugging Face Hubに公開されたtransformersモデルです。具体的な情報は後日追加予定です。
大規模言語モデル Transformers
E
datumo
2,627
1
Kimi Dev 72B GGUF
MIT
Kimi-Dev-72Bの量子化バージョンで、先進的な非線形最適量子化とマルチヘッド潜在注意力機構を採用し、ストレージと計算要件を削減します。
大規模言語モデル その他
K
ubergarm
2,780
1
Qwen3 235B A22B 4bit DWQ 053125
Apache-2.0
これはQwen3-235B-A22B-8ビットモデルから変換された4ビット量子化バージョンで、MLXフレームワーク用に最適化され、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
200
1
Josiefied DeepSeek R1 0528 Qwen3 8B Abliterated V1 Bf16
これはMLX形式に変換された大規模言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル
J
mlx-community
2,168
1
Josiefied DeepSeek R1 0528 Qwen3 8B Abliterated V1 8bit
これはDeepSeek-R1-0528-Qwen3-8Bモデルを変換したMLX形式の8ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
J
mlx-community
847
1
Deepseek R1 0528 Qwen3 8B Bf16
MIT
このモデルは、deepseek-ai/deepseek-r1-0528-Qwen3-8B を変換したMLX形式のバージョンで、Appleデバイスのローカル推論に適しています。
大規模言語モデル
D
mlx-community
2,298
1
Deepseek R1 0528 Qwen3 8B MLX 8bit
MIT
DeepSeek-R1-0528-Qwen3-8Bモデルに基づく8ビット量子化バージョンで、Apple Siliconチップ用に最適化され、テキスト生成タスクに適しています。
大規模言語モデル
D
lmstudio-community
151.87k
2
Dmindai.dmind 1 GGUF
DMind-1はテキスト生成の基盤モデルであり、知識の自由な伝播を目指しています。
大規模言語モデル
D
DevQuasar
226
1
Llama Baseline V3 A
このモデルはTransformersライブラリをベースとしたモデルで、具体的な用途や機能についてはさらに情報が必要です。
大規模言語モデル Transformers
L
Hyper-AI-Computer
140
1
Nvidia Llama 3.1 Nemotron Nano 4B V1.1 GGUF
その他
NVIDIA Llama-3.1-Nemotron-Nano-4B-v1.1モデルを基にした量子化バージョンで、llama.cppツールを使用して様々な量子化処理が施されており、リソースが限られた環境での実行に適しています。
大規模言語モデル 英語
N
bartowski
2,553
8
Seed Coder 8B Instruct V1
Transformersライブラリに基づく汎用テキスト生成モデルで、様々な自然言語処理タスクをサポート
大規模言語モデル Transformers
S
wasmdashai
57
2
Qwen3 32B 4bit DWQ
Apache-2.0
Qwen3-32B-8bitはQwen3-32Bモデルを8ビット量子化したバージョンで、テキスト生成タスクに適しており、mlx-communityによってリリースされました。
大規模言語モデル
Q
mlx-community
211
1
Title Creator
このモデルはtransformersライブラリをベースとしたモデルで、具体的な用途や機能はさらなる情報確認が必要です。
大規模言語モデル Transformers
T
InsafQ
22
1
Thedrummer Big Alice 28B V1 GGUF
MIT
Big-Alice-28B-v1は28Bパラメータの大規模言語モデルで、llama.cppのimatrix量子化処理を施し、さまざまなハードウェアニーズに対応する複数量子化バージョンを提供します。
大規模言語モデル
T
bartowski
2,259
4
Blip2 Flan Lora Finetuned Six Epoch
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能はさらなる情報が必要です。
大規模言語モデル Transformers
B
efeozdilek
19
0
Sam Reason S2.1 GGUF
MIT
Sam-reason-S2.1の静的量子化バージョンで、さまざまなハードウェア要件に対応するための複数量子化オプションを提供
大規模言語モデル 英語
S
mradermacher
299
1
Tngtech.deepseek R1T Chimera GGUF
DeepSeek-R1T-Chimeraはテキスト生成モデルで、tngtechの技術を基に開発され、効率的な自然言語処理タスクに特化しています。
大規模言語モデル
T
DevQuasar
1,407
2
Thedrummer Snowpiercer 15B V1 GGUF
MIT
TheDrummer/Snowpiercer-15B-v1モデルを基にした量子化バージョンで、llama.cppを使用して量子化されており、テキスト生成タスクに適しています。
大規模言語モデル
T
bartowski
4,783
1
Custom Response Generator
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能はさらなる情報が必要です。
大規模言語モデル Transformers
C
Leo66277
21
1
Movie Sentiment Model
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能はさらなる情報が必要です。
大規模言語モデル Transformers
M
KeonBlackwell
90
2
INTELLECT 2 GGUF
INTELLECT-2-GGUF は PrimeIntellect/INTELLECT-2 の GGUF フォーマット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
I
MaziyarPanahi
88
1
Qwen2.5 1.5B S1k 1.1
このモデルはQwen/Qwen2.5-1.5B-Instructをベースに微調整されたテキスト生成モデルで、TRLを使用して訓練され、テキスト生成タスクに強力なサポートを提供します。
大規模言語モデル Transformers
Q
rvindra
1,312
1
My Llama3.1 8B With Lora Eniad Assistant
このモデルはtransformersライブラリに基づくモデルで、具体的な機能や用途はさらなる情報が必要です。
大規模言語モデル Transformers
M
ahmed-ouka
90
1
Bitnet R1 Qwen 32b
このモデルはtransformersライブラリに基づくモデルで、具体的な用途と機能についてはさらなる情報確認が必要です。
大規模言語モデル Transformers
B
codys12
221
10
Turn Detector Qwen2.5
このモデルはTransformersアーキテクチャに基づくモデルで、具体的な機能と用途は追加情報が必要です。
大規模言語モデル Transformers
T
jeradf
56
1
Qwen3 30B A3B MNN
Apache-2.0
Qwen3-30B-A3BからエクスポートされたMNNモデルを4ビット量子化したバージョンで、効率的な推論に適しています。
大規模言語モデル 英語
Q
taobao-mnn
550
1
N1
MIT
N1はGoofyLMによって開発された小型の実験的な思考過程(COT)モデルで、LLaMAアーキテクチャに基づいて構築され、段階的な推論問題に特化しています。
大規模言語モデル Transformers 英語
N
GoofyLM
426.51k
1
Skin Disease Classifier
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途はまだ明確に説明されていません。
大規模言語モデル Transformers
S
muhammadnoman76
28
0
Magtie V1 12B GGUF
Apache-2.0
MagTie-v1-12BのGGUF量子化バージョンセットで、mergekitツールを使用して事前訓練された言語モデルを統合し作成され、テキスト生成タスクに適しています。
大規模言語モデル Transformers
M
grimjim
373
2
Qwen3 30B A3B GGUF
Qwen3-30B-A3BのGGUF量子化バージョンで、複数のビット量子化をサポートし、テキスト生成タスクに適しています。
大規模言語モデル
Q
MaziyarPanahi
158.92k
3
Qwen3 4B MNN
Apache-2.0
Qwen3-4BのMNNモデルの4ビット量子化バージョンで、効率的なテキスト生成タスクに使用されます。
大規模言語モデル 英語
Q
taobao-mnn
10.60k
2
Internvl2 5 1B MNN
Apache-2.0
InternVL2_5-1Bに基づく4ビット量子化バージョンで、テキスト生成とチャットシーンに適しています。
大規模言語モデル 英語
I
taobao-mnn
2,718
1
Huihui Ai.glm 4 32B 0414 Abliterated GGUF
GLM-4-32B-0414-abliterated はGLMアーキテクチャに基づく大規模言語モデルで、パラメータ規模は32Bであり、テキスト生成タスクに適しています。
大規模言語モデル
H
DevQuasar
623
2
T5 Grammar Corrector
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能はさらなる情報が必要です。
大規模言語モデル Transformers
T
Harshathemonster
70
1
GLM 4 32B 0414 8bit
MIT
このモデルはTHUDM/GLM-4-32B-0414から変換された8ビット量子化MLXフォーマットの大規模言語モデルで、中英文テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
G
mlx-community
222
4
Inclusionai Ling Lite 0415 GGUF
MIT
inclusionAI/Ling-liteを基にした量子化バージョンで、llama.cppを使用してimatrix量子化を行い、さまざまなハードウェア要件に対応するために複数の量子化タイプをサポートしています。
大規模言語モデル
I
bartowski
3,112
6
Log Anomaly Detection Model New
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能と用途は追記が必要です。
大規模言語モデル Transformers
L
Dumi2025
652
1
Audio Emotion Detector Large
このモデルはTransformersライブラリをベースとしたモデルで、具体的な用途や機能はさらなる情報が必要です。
大規模言語モデル Transformers
A
aicinema69
18
1
Scarlet
このモデルはTransformersライブラリに基づいており、具体的な機能は明確に説明されていません
大規模言語モデル Transformers
S
agasta
426
0
Mt5 Swahili Finetuned
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能についてはさらに情報の確認が必要です。
大規模言語モデル Transformers
M
tanya17
14
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase