Thedrummer Cydonia 24B V3 GGUF
その他
これはTheDrummerのCydonia-24B-v3モデルの量子化バージョンで、llama.cppを使用して量子化処理を行い、さまざまなハードウェアや使用シーンに適応するための複数の量子化オプションを提供しています。
大規模言語モデル
T
bartowski
1,326
4
Qwen3 30B A3B Abliterated Fp4
Apache-2.0
これはQwen3-30B-A3B-abliteratedの4ビット量子化モデルで、パラメータ規模は8B相当で、テキスト生成タスクに適しています。
大規模言語モデル
Transformers

Q
huihui-ai
103
1
Qwen Qwen3 32B GGUF
Apache-2.0
Qwen/Qwen3-32Bを基にした量子化バージョンで、llama.cppを使用して量子化されており、様々な量子化タイプをサポートし、異なるハードウェア要件に対応します。
大規模言語モデル
Q
bartowski
49.13k
35
GLM 4 32B 0414 4bit
MIT
GLM-4-32B-0414-4bit は THUDM/GLM-4-32B-0414 から変換された MLX フォーマットモデルで、中国語と英語のテキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
G
mlx-community
361
3
Wan2.1 FLF2V 14B 720P Gguf
Apache-2.0
Wan2.1-FLF2V-14B-720P は画像から動画を生成するモデルで、様々な動画制作シーンに適しています。
動画処理 複数言語対応
W
city96
5,019
17
Belle Whisper Large V3 Turbo Zh Ct2
Apache-2.0
これはBELLE-2/Belle-whisper-large-v3-turbo-zhモデルのCTranslate2形式変換バージョンで、効率的な音声認識タスクに適しています。
音声認識
B
flateon
32
2
Llm2vec Meta Llama 31 8B Instruct Mntp Unsup Simcse
MIT
LLM2Vecは、デコーダのみのアーキテクチャを持つ大規模言語モデルをテキストエンコーダに変換するソリューションで、双方向アテンション、マスクされた次単語予測、教師なしコントラスト学習を有効にすることで変換を実現します。
テキスト埋め込み 英語
L
McGill-NLP
55
2
Molmo 7B D Bnb 4bit
Apache-2.0
Molmo-7B-DはBnB 4ビット量子化を施した大規模言語モデルで、モデルサイズが30GBから7GBに縮小され、VRAM要件が約12GBに抑えられます。
大規模言語モデル
Transformers

M
cyan2k
1,994
17
C4ai Command R 08 2024
これはCoForAI/c4ai-command-r-08-2024モデルを変換したGGUF形式のテキスト生成モデルで、複数言語をサポートしています。
大規模言語モデル 複数言語対応
C
KimChen
22
2
Malaysian Distil Whisper Large V3
マレーシアデータセットで蒸留最適化されたWhisper Large V3音声認識モデル、マレー語など複数言語をサポート
音声認識
Transformers 複数言語対応

M
mesolitica
30
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98