Ling Lite 1.5
MIT
霊曦はInclusionAIがオープンソース化した大規模混合エキスパート言語モデルで、簡易版は総パラメータ168億、活性化パラメータ27.5億を有し、卓越した性能を発揮します。
大規模言語モデル
Transformers

L
inclusionAI
46
3
Typhoon2.1 Gemma3 12b Gguf
Typhoon2.1-Gemma3-12Bは指令型のタイ語大規模言語モデルで、120億のパラメータ、128Kのコンテキスト長、関数呼び出し機能を持っています。
大規模言語モデル
T
scb10x
186
1
Qwen3 32B 128K GGUF
Apache-2.0
Qwen3はQwenシリーズ最新世代の大規模言語モデルで、一連の高密度および混合専門家(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル 英語
Q
unsloth
20.51k
20
Qwen3 8B 128K GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新8Bパラメータ版で、思考モードと非思考モードの切り替えをサポートし、128Kのコンテキスト長と優れた多言語能力を備えています。
大規模言語モデル 英語
Q
unsloth
15.29k
14
Qwen3 235B A22B 128K GGUF
Apache-2.0
Qwen3は通義千問シリーズの最新世代大規模言語モデルで、完全な密モデルと混合エキスパート(MoE)モデルセットを提供します。大規模なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル 英語
Q
unsloth
310.66k
26
Google Gemma 3 27b It Text
Gemma 3 27Bの純テキスト対応版で、画像処理機能を削除し、テキスト生成タスクに特化
大規模言語モデル
Transformers

G
Changgil
34
2
Qwen2.5 7B Instruct GGUF Llamafile
Apache-2.0
Qwen2.5は通義千問大モデルの最新シリーズで、0.5Bから72Bまでのパラメータ規模の基本モデルと命令微調整モデルを含み、コード、数学、命令遵守、長文生成などの分野で顕著な向上が見られます。
大規模言語モデル 英語
Q
Bojun-Feng
441
2
Gemma 3 1b It Llamafile
GemmaはGoogleが提供する軽量オープンモデルシリーズで、Geminiと同じ研究技術に基づいて構築されています。llamafileバージョンはMozillaによって実行可能ファイルとしてパッケージ化されており、マルチプラットフォームでの利用が容易です。
テキスト生成画像
G
Mozilla
469
3
Viper Coder V1.5 R999
Apache-2.0
Viper-Coder-v1.5-r999 は Qwen 2.5 14B アーキテクチャを基に設計された大規模言語モデルで、コーディングと推論タスクに最適化されており、強力な思考連鎖推論と論理的問題解決能力を備えています。
大規模言語モデル
Transformers 複数言語対応

V
prithivMLmods
1,314
1
Viper OneCoder UIGEN
Apache-2.0
Qwen 2.5 14Bアーキテクチャに基づいて設計されたウェブ開発と構造化コーディングロジックモデルで、HTML/CSS/Tailwind開発と複雑なコマンド実行に優れています。
大規模言語モデル
Transformers 英語

V
prithivMLmods
1,389
3
Phi 4 Multimodal Instruct
MIT
Phi-4-multimodal-instructは、軽量でオープンソースのマルチモーダル基盤モデルで、Phi-3.5と4.0モデルの言語、視覚、音声研究データを統合しています。テキスト、画像、音声入力をサポートし、テキスト出力を生成し、128Kトークンのコンテキスト長を備えています。
テキスト生成オーディオ
Transformers 複数言語対応

P
microsoft
584.02k
1,329
Deepseek R1 FP4
MIT
DeepSeek R1モデルのFP4量子化バージョン、最適化されたTransformerアーキテクチャで効率的なテキスト生成を実現
大規模言語モデル
D
nvidia
61.51k
239
Chocolatine Fusion 14B
MIT
Chocolatine-Fusion-14Bは、Chocolatine-2シリーズの利点を組み合わせた融合モデルで、最適化された融合により推論能力とマルチターン対話性能が向上しています。
大規模言語モデル
Transformers

C
FINGU-AI
226
5
C4ai Command R Plus 08 2024
Command R+ 08-2024 は1040億パラメータの多言語大規模言語モデルで、検索拡張生成(RAG)とツール使用をサポートし、複雑なタスクの自動化に適しています。
大規模言語モデル
Transformers 複数言語対応

C
CohereLabs
4,265
260
C4ai Command R Plus Fp8
C4AI Command R+ は、オープンウェイトの1040億パラメータ研究モデルで、検索拡張生成(RAG)や複雑なタスクを自動化するツール使用などの高度な機能を備えています。
大規模言語モデル
Transformers 複数言語対応

C
FriendliAI
35
4
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98