Ling Lite 1.5
MIT
霊曦はInclusionAIがオープンソース化した大規模混合エキスパート言語モデルで、簡易版は総パラメータ168億、活性化パラメータ27.5億を有し、卓越した性能を発揮します。
大規模言語モデル
Transformers

L
inclusionAI
46
3
Smoothie Qwen3 14B
Apache-2.0
軽量チューニングツール、Qwen及び類似モデルのトークン確率分布を平滑化し多言語生成のバランスを向上
大規模言語モデル
Transformers 英語

S
dnotitia
2,518
4
Smoothie Qwen3 8B
Apache-2.0
スムージー千問は軽量チューニングツールで、Qwenおよび類似モデルのトークン確率分布を平滑化し、多言語生成のバランスを大幅に向上させます。
大規模言語モデル
Transformers 英語

S
dnotitia
267
8
Smoothie Qwen3 32B
Apache-2.0
スムージー千問は軽量なチューニングツールで、Qwenおよび類似モデルのトークン確率分布を平滑化することで、多言語生成のバランスを大幅に改善します。
大規模言語モデル
Transformers 英語

S
dnotitia
1,335
4
GLM 4 32B 0414 Unsloth Bnb 4bit
MIT
GLM-4-32B-0414はGLMファミリーの新メンバーで、320億のパラメータを持ち、GPTシリーズやDeepSeekシリーズに匹敵する性能を発揮し、ローカルデプロイをサポートします。
大規模言語モデル
Transformers 複数言語対応

G
unsloth
87
2
GLM 4 32B 0414 GGUF
MIT
GLM-4-32B-0414は320億のパラメータを持つ大規模言語モデルで、性能はGPT-4oやDeepSeek-V3に匹敵し、中国語と英語をサポートし、卓越したコード生成、関数呼び出し、複雑なタスク処理能力を備えています。
大規模言語モデル 複数言語対応
G
unsloth
4,680
10
360zhinao3 7B O1.5
Apache-2.0
360智脳3-7B-O1.5は奇虎360がオープンソース化した長思考連鎖モデルで、360智脳3-7B-Instructをファインチューニングしており、複雑な推論タスクをサポートします。
大規模言語モデル
Transformers 複数言語対応

3
qihoo360
35
3
Blabbertron 1.2
Qwen2.5-7B-Instructベースモデルを基盤とし、複数の7B規模モデルの強みを融合し、モデルストック法により統合したハイブリッドモデルです。
大規模言語モデル
Transformers

B
bunnycore
39
2
Qwen2.5 14B DeepSeek R1 1M Uncensored
これはQwen2.5-14B-DeepSeek-R1-1Mモデルをベースに、TIESメソッドでDeepSeek-R1-Distill-Qwen-14B-abliterated-v2を融合した14Bパラメータ規模の大規模言語モデルです
大規模言語モデル
Transformers

Q
FiditeNemini
154
6
Tinyllama V1.1 Math Code
Apache-2.0
TinyLlamaは11億パラメータのコンパクトな言語モデルで、Llama 2と同じアーキテクチャとトークナイザーを採用しており、計算リソースやメモリが限られたアプリケーションシナリオに適しています。
大規模言語モデル
Transformers 英語

T
TinyLlama
3,436
11
Xwin LM 13B V0.2
Xwin-LMはLlama2を基に開発された大規模言語モデルのアライメント技術で、AlpacaEvalベンチマークで優れた性能を発揮
大規模言語モデル
Transformers

X
Xwin-LM
713
51
Chinese Llama 2 1.3b
Apache-2.0
Chinese-LLaMA-2-1.3BはMetaがリリースしたLlama-2モデルを基にした中国語基礎モデルで、中国語語彙を拡張し中国語事前学習を行い、中国語の基礎的な意味理解能力を向上させています。
大規模言語モデル
Transformers 複数言語対応

C
hfl
1,074
19
Anima33b Merged
その他
QLoRAベースの初のオープンソース33B中国語大規模言語モデルで、Guanaco 33Bを基に中国語能力を強化したファインチューニングを実施
大規模言語モデル
Transformers 中国語

A
lyogavin
52
30
Bert Seg V2
Apache-2.0
これはApache-2.0ライセンスに基づくオープンソースモデルで、具体的な機能は実際のモデルタイプによって決定されます
大規模言語モデル
Transformers

B
simonnedved
20
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98