GLM 4 32B 0414 4bit DWQ
これはTHUDM/GLM-4-32B-0414モデルのMLXフォーマット版で、4ビットDWQ量子化処理が施されており、Appleチップデバイス向けの効率的な推論に適しています。
Downloads 156
Release Time : 5/22/2025
Model Overview
清華大学GLM-4-32B大規模言語モデルを基にしたMLX対応版で、中英文テキスト生成タスクをサポートし、Apple Mシリーズチップ向けに最適化されています。
Model Features
Appleチップ最適化
Apple Mシリーズチップ向けに最適化されたMLXフォーマットで、ローカルでの効率的な推論を実現
4ビット量子化
DWQ(動的ウェイト量子化)技術を採用し、モデルを4ビット精度に圧縮、メモリ使用量を削減
中英二言語サポート
中国語と英語のテキスト生成タスクをネイティブサポート
Model Capabilities
テキスト生成
対話システム
コンテンツ作成
質問応答システム
Use Cases
インテリジェントアシスタント
チャットボット
流暢な中英文対話システムの構築
自然で流暢な対話体験
コンテンツ作成
記事生成
プロンプトに基づき一貫性のあるテキストコンテンツを自動生成
高品質な長文出力
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98