Qwen3 8B GGUF
Qwenチームが開発した8Bパラメータ規模の大規模言語モデルで、超長コンテキストと多言語処理をサポート
ダウンロード数 39.45k
リリース時間 : 4/28/2025
モデル概要
Qwen3アーキテクチャに基づく8Bパラメータ規模の大規模言語モデルで、クリエイティブライティング、ロールプレイ、マルチターン対話に優れ、高度なエージェント能力と多言語サポートを備えている
モデル特徴
超長コンテキストサポート
最大131,072トークンのコンテキスト処理をサポート(デフォルト32k)、YaRN技術を採用
デュアルモード推論
思考連鎖推論と直接出力モードを兼ね備え、/no_thinkコマンドで切り替え可能
マルチドメイン強化
数学、プログラミング、常識推論能力を特別に最適化
多言語サポート
100以上の言語と方言の処理をサポート
モデル能力
テキスト生成
クリエイティブライティング
ロールプレイ
マルチターン対話
指示追従
数学推論
プログラミング支援
常識推論
使用事例
コンテンツ作成
クリエイティブライティング
小説、詩などのクリエイティブテキストを生成
想像力豊かな文学コンテンツを生成可能
ロールプレイ
様々なキャラクターの対話をシミュレート
一貫したキャラクター設定と対話を維持可能
技術応用
プログラミング支援
コード生成と説明
複数のプログラミング言語のコード処理をサポート
数学推論
数学問題の解決と論理推論
複雑な数学計算と証明を処理可能
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98