Kanana 1.5 8b Instruct 2505 GGUF
Apache-2.0
Kanana 1.5はKananaモデルシリーズの新バージョンで、コーディング、数学、関数呼び出し能力が大幅に向上し、最大32Kトークンの入力を処理可能で、YaRN使用時には128Kトークンまで処理可能です。
大規模言語モデル
Transformers 複数言語対応

K
Mungert
606
2
Kanana 1.5 8b Instruct 2505
Apache-2.0
Kanana 1.5はKananaモデルファミリーの新バージョンで、コーディング、数学、関数呼び出し能力において前世代と比べて大幅に向上し、32Kトークンの長さをサポートし、128Kトークンまで拡張可能です。
大規模言語モデル
Transformers 複数言語対応

K
kakaocorp
1,932
26
Qwen3 235B A22B GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、密モデルと混合専門家(MoE)モデルの完全なセットを提供します。膨大なトレーニングデータに基づき、Qwen3は推論能力、命令追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル
Q
Qwen
1,576
2
Qwen3 32B AWQ
Apache-2.0
Qwen3-32B-AWQは通義千問シリーズ最新世代の32.8Bパラメータの大規模言語モデルで、AWQ 4-bit量子化技術を採用し、思考モードと非思考モードの切り替えをサポートし、優れた推論、指示追従、エージェント能力を備えています。
大規模言語モデル
Transformers

Q
Qwen
35.67k
54
Qwen3 235B A22B FP8
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、密モデルと混合エキスパート(MoE)モデルの完全なスイートを提供します。大規模なトレーニングに基づき、Qwen3は推論、指示の遵守、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル
Transformers

Q
Qwen
47.30k
68
Qwen3 32B FP8
Apache-2.0
Qwen3-32B-FP8は通義千問シリーズ最新世代の32.8Bパラメータ大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、優れた推論能力、指示追従能力、エージェント能力を備えています。
大規模言語モデル
Transformers

Q
Qwen
29.26k
47
Qwen3 14B FP8
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、全シリーズの密モデルと混合専門家(MoE)モデルを提供し、推論、命令追従、エージェント能力、多言語サポートにおいて画期的な進展を遂げています。
大規模言語モデル
Transformers

Q
Qwen
16.28k
19
Qwen3 8B FP8
Apache-2.0
Qwen3-8B-FP8は通義千問シリーズの大規模言語モデルの最新バージョンで、FP8量子化バージョンを提供し、思考モードと非思考モードのシームレスな切り替えをサポートし、強力な推論能力と多言語サポートを備えています。
大規模言語モデル
Transformers

Q
Qwen
22.18k
27
Qwen3 32B Unsloth Bnb 4bit
Apache-2.0
Qwen3は通義千問シリーズの最新大規模言語モデルで、32.8Bパラメータの高密度モデルを提供し、推論能力、指示追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しています。
大規模言語モデル
Transformers 英語

Q
unsloth
10.03k
5
Qwen3 32B GGUF
Apache-2.0
Qwen3はアリババクラウドが開発した大規模言語モデルシリーズの最新版で、優れた推論能力、指示追従能力、多言語サポートを備えています。32Bバージョンはその高密度モデルの一つで、思考モードと非思考モードの切り替えをサポートしています。
大規模言語モデル 英語
Q
unsloth
123.35k
57
Qwen3 32B
Apache-2.0
Qwen3は通義千問シリーズの最新世代大規模言語モデルで、完全な密モデルと専門家混合(MoE)モデルの組み合わせを提供します。大規模なトレーニングに基づき、Qwen3は推論、指示遵守、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル
Transformers

Q
Qwen
502.01k
321
Kanana 1.5 8b Base
Apache-2.0
Kanana 1.5はKakao社が開発したバイリンガル大規模言語モデルで、英語と韓国語をサポートし、プログラミング、数学、関数呼び出し能力において顕著な向上が見られ、ネイティブで32Kトークンのコンテキスト長をサポート
大規模言語モデル
Transformers 複数言語対応

K
kakaocorp
432
7
Falcon3
Apache-2.0
Falcon3-10B-InstructはFalcon3シリーズのオープンソース基盤モデルで、100億パラメータを有し、高品質な指示追従タスクに特化しており、多言語処理をサポートし、コンテキスト長は最大32Kトークンに達します。
大規模言語モデル
F
cortexso
244
1
Midnight Miqu 103B V1.5
Miquベースの103B混合モデル、32Kコンテキスト長をサポート、個人使用のみ
大規模言語モデル
Transformers

M
FluffyKaeloky
63
18
PULI LlumiX 32K
PULI LlumiX 32KはLLaMA-2-7B-32Kをベースにした大規模言語モデルで、ハンガリー語と英語のデータセットで継続的に事前学習され、32Kのコンテキスト長をサポートします。
大規模言語モデル
Transformers 複数言語対応

P
NYTK
453
11
Midnight Miqu 103B V1.0
その他
Miqu漏洩モデルを基にした103Bパラメータのハイブリッドモデル、32Kコンテキスト長をサポート
大規模言語モデル
Transformers

M
sophosympatheia
18
13
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98