Qwen3 235B A22B GGUF
Qwenチームが開発した2350億パラメータの大規模言語モデルの量子化バージョン、131kの文脈長と混合専門家アーキテクチャをサポート
ダウンロード数 22.88k
リリース時間 : 4/28/2025
モデル概要
Qwen3-235B-A22Bを基にしたGGUF量子化バージョン、マルチターン会話、クリエイティブライティング、複雑な推論タスクに優れる
モデル特徴
超長文脈サポート
YaRN拡張技術により最大131,072トークンの文脈処理をサポート(デフォルト32k)
デュアルモード推論
/no_thinkコマンドで推論/非推論モードを切り替え、異なるシナリオでのパフォーマンスを最適化
混合専門家アーキテクチャ
22Bパラメータを動的に活性化(総計235B)、128専門家から8つをインテリジェントに選択して推論
多言語能力
100以上の言語と方言のテキスト生成と理解をサポート
モデル能力
クリエイティブライティング
ロールプレイ
マルチターン会話
指示追従
数学的推論
プログラミング支援
常識推論
多言語生成
使用事例
コンテンツ作成
クリエイティブライティング支援
小説の章、詩などの創造的なテキストを生成
一貫性があり創造性豊かな長文を生成可能
ロールプレイ対話
複雑なキャラクターインタラクションシーンを構築
マルチターンにわたるキャラクター一貫性を維持
技術応用
コード生成と説明
自然言語記述に基づきプログラミングコードを生成
複数のプログラミング言語のコード補完をサポート
数学問題解決
複雑な数学的推論問題を解決
段階的な推論プロセスを表示
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98