Polaris 4B Preview F32 GGUF
Apache-2.0
Polarisはオープンソースの事後学習方法で、強化学習を利用してモデルを最適化・強化し、推論能力を向上させます。
大規模言語モデル
Transformers 英語

P
prithivMLmods
765
1
Longwriter Zero 32B I1 GGUF
Apache-2.0
LongWriter-Zero-32B 量子化モデルは、THU-KEG/LongWriter-Zero-32B 基礎モデルに基づいており、中英バイリンガルをサポートし、強化学習やライティングなどの長文脈シナリオに適しています。
大規模言語モデル
Transformers 複数言語対応

L
mradermacher
135
1
Longwriter Zero 32B GGUF
Apache-2.0
LongWriter-Zero-32B量子化モデルは、オリジナルモデルに基づいて静的量子化処理を行った多言語モデルで、強化学習や写作などの長文脈シーンに適しています。
大規模言語モデル
Transformers 複数言語対応

L
mradermacher
204
1
Acereason Nemotron 1.1 7B GGUF
その他
NVIDIAが開発した高性能の7Bパラメータ言語モデルで、数学とコードの推論タスクに特化し、128kのコンテキスト長をサポートします。
大規模言語モデル 複数言語対応
A
lmstudio-community
278
1
Kimi Dev 72B
MIT
Kimi-Dev-72Bは、ソフトウェアエンジニアリングタスクに使用されるオープンソースのコーディング大規模言語モデルで、SWE-bench Verifiedでオープンソースモデルの中で最良の成績を収めています。
大規模言語モデル
Transformers その他

K
moonshotai
324
162
Deephermes Financial Fundamentals Prediction Specialist Atropos
これは実験的な金融分析モデルで、Atropos強化学習フレームワークにより金融ファンダメンタル予測能力を最適化
大規模言語モデル
Transformers 英語

D
NousResearch
52
5
Contentv 8B
Apache-2.0
ContentVは高効率なビデオ生成モデルフレームワークで、極簡アーキテクチャ、多段階トレーニング戦略、経済的で効率的な強化学習フレームワークを通じて、限られた計算リソースで高品質なビデオ生成を実現します。
動画処理
C
ByteDance
417
25
Mmada 8B MixCoT
MIT
MMaDAは新しいタイプのマルチモーダル拡散基盤モデルであり、テキスト推論、マルチモーダル理解、テキストから画像生成など複数の分野で優れた性能を発揮します。
テキスト生成画像
Transformers

M
Gen-Verse
601
3
Reasongen R1
Apache-2.0
ReasonGen - R1は思考チェーン推論を融合した自己回帰画像生成モデルで、SFTとRLによって画像生成の論理性と品質を向上させます。
テキスト生成画像
Transformers

R
Franklin0
142
1
Qwenlong L1 32B
Apache-2.0
QwenLong-L1は強化学習でトレーニングされた長文脈推論モデルで、7つの長文脈文書質問応答ベンチマークテストで優れた性能を発揮しています。
大規模言語モデル
Transformers

Q
Tongyi-Zhiwen
683
106
Thinkless 1.5B Warmup
Apache-2.0
無思フレームワーク(Thinkless)は学習可能なフレームワークで、大規模モデルがタスクの複雑さと自身の能力に基づいて、短い推論または長い連鎖推論を適応的に選択できるようにします。
大規模言語モデル
Transformers

T
Vinnnf
966
1
Qwen2.5 VL 3B UI R1 E
MIT
UI-R1-E-3BはQwen2.5-VL-3B-Instructを微調整した効率的なGUI位置特定モデルで、視覚的質問応答タスクに特化し、ユーザーインターフェースのスクリーンショット内での操作要素の位置特定と認識に優れています。
画像生成テキスト 英語
Q
LZXzju
75
3
Verireason Codellama 7b RTLCoder Verilog GRPO Reasoning Tb
VeriReasonは、強化学習とテストプラットフォームのフィードバックを組み合わせたVerilog RTLコード生成方法で、事前学習モデルのハードウェア設計分野での性能を大幅に向上させます。
大規模言語モデル
Transformers

V
Nellyw888
1,483
1
INTELLECT 2 GGUF
Apache-2.0
INTELLECT 2はPrimeIntellectが開発した大規模言語モデルで、40960トークンのコンテキスト長をサポートし、QwQアーキテクチャとGRPO強化学習フレームワークでトレーニングされています。
大規模言語モデル
I
lmstudio-community
467
5
Llama 3.1 Nemotron Nano 8B V1 GGUF
その他
Llama-3.1-Nemotron-Nano-8B-v1はMeta Llama-3.1-8B-Instructをベースとした推論モデルで、推論能力、人間のチャット嗜好性、タスク実行能力を強化するための追加トレーニングが施されています。
大規模言語モデル
Transformers 英語

L
unsloth
22.18k
3
INFRL Qwen2.5 VL 72B Preview Q8 With Bf16 Output And Bf16 Embedding.gguf
Apache-2.0
Qwen2.5-VL-72B-Instructを基に改良したマルチモーダル視覚言語モデルで、複数の視覚推論ベンチマークで優れた性能を発揮
テキスト生成画像 英語
I
GeorgyGUF
64
0
INFRL Qwen2.5 VL 72B Preview Bf16.gguf
Apache-2.0
Qwen2.5-VL-72B-Instructを基に最適化された視覚言語モデルで、複数の視覚推論ベンチマークテストで優れた性能を発揮
テキスト生成画像 英語
I
GeorgyGUF
40
0
Llama 3.1 8B Instruct
Meta Llama 3.1シリーズの多言語大規模言語モデルで、8Bパラメータ規模を含み、多言語対話ユースケースに最適化され、8言語をサポートします。
大規模言語モデル
Safetensors 複数言語対応
L
RedHatAI
292
1
Kevin 32B GGUF
Kevin 32BはCognition AIによって開発された大規模言語モデルで、超長コンテキスト(40960トークン)をサポートし、CUDAカーネル生成と強化学習タスクに特化しています。
大規模言語モデル
K
lmstudio-community
297
4
RM R1 DeepSeek Distilled Qwen 14B
MIT
RM-R1は推論報酬モデル(ReasRM)のためのトレーニングフレームワークで、評価基準や推論軌跡を生成して候補回答を評価し、解釈可能な評価を提供します。
大規模言語モデル
Transformers 英語

R
gaotang
95
1
II Medical 7B Preview
Qwen/Qwen2.5-7B-Instructをファインチューニングした医療推論モデルで、複数の医療QAベンチマークテストで優れた性能を発揮
大規模言語モデル
Transformers

I
Intelligent-Internet
112
9
Skywork VL Reward 7B
MIT
Skywork-VL-Reward-7Bは7Bパラメータのマルチモーダル報酬モデルで、Qwen2.5-VL-7B-Instructアーキテクチャを基に、報酬モデルトレーニング用の価値ヘッド構造を追加しています。
マルチモーダル融合
Transformers

S
Skywork
30
8
Deepcoder 1.5B Preview GGUF
MIT
DeepSeek-R1-Distilled-Qwen-1.5Bをファインチューニングしたコード推論大規模言語モデルで、分散型強化学習技術を用いて長文脈処理能力を拡張
大規模言語モデル 英語
D
Mungert
888
2
Tinyllava Video R1
Apache-2.0
TinyLLaVA-Video-R1はトレーサビリティのある訓練モデルTinyLLaVA-Videoを基にした小規模動画推論モデルで、強化学習により推論力と思考力を大幅に向上させ、'ひらめきの瞬間'の創発特性を示します。
ビデオ生成テキスト
Transformers

T
Zhang199
123
2
Deepcoder 14B Preview Exl2
DeepCoder-14B-PreviewはDeepSeek-R1-Distill-Qwen-14Bを基に開発されたコード生成モデルで、検証可能なプログラミング問題の解決に特化しています。
大規模言語モデル 英語
D
cgus
46
2
Deepcoder 1.5B Preview Exl2 4.65bpw
MIT
DeepSeek-R1-Distilled-Qwen-1.5Bを微調整したコード推論大規模モデルで、分散型強化学習技術を用いて長いコンテキスト処理能力を拡張
大規模言語モデル
Transformers 英語

D
async0x42
14
3
Unt 8b
Apache-2.0
ラクダモデルはトランスフォーマーアーキテクチャに基づくテキスト生成モデルで、アゼルバイジャン語をサポートし、強化学習を用いて訓練されています。
大規模言語モデル
Transformers その他

U
omar07ibrahim
33
2
Quasar 3.0 Final
Quasar-3.0-MaxはSILX INCが提供する7Bパラメータ蒸留モデルで、Quasarアーキテクチャの初期の可能性を示し、革新的なTTMトレーニングプロセスと強化学習技術を採用しています。
大規模言語モデル
Transformers

Q
silx-ai
118
4
Quasar 3.0 Instract V2
Quasar-3.0-7Bは間もなくリリースされる400B Quasar 3.0モデルの蒸留バージョンで、Quasarアーキテクチャの初期の実力と可能性を示しています。
大規模言語モデル
Transformers

Q
silx-ai
314
8
VARGPT V1.1
Apache-2.0
VARGPT-v1.1は視覚自己回帰統一モデルで、反復命令チューニングと強化学習により、視覚理解と生成タスクを同時に実現できます。
テキスト生成画像
Transformers 英語

V
VARGPT-family
954
6
VARGPT V1.1 Edit
Apache-2.0
VARGPT-v1.1は、反復命令チューニングと強化学習によって強化された視覚自己回帰統一大規模モデルで、視覚理解と生成タスクをサポートします。
テキスト生成画像
Transformers 英語

V
VARGPT-family
169
1
Community Request 01 12B
複数のCaptain-Erisシリーズモデルをmergekitツールで統合した事前学習言語モデル
大規模言語モデル
Transformers

C
Nitral-AI
19
3
Qwen2.5 VL 3B UI R1
MIT
UI-R1は強化学習によって強化されたGUIエージェントの動作予測を行う視覚言語モデルで、Qwen2.5-VL-3B-Instructを基に構築されています。
テキスト生成画像 英語
Q
LZXzju
96
6
R1 Aqa
Apache-2.0
R1-AQAはQwen2-Audio-7B-Instructを基にした音声質問応答モデルで、集団相対戦略最適化(GRPO)アルゴリズムによる強化学習最適化を行い、MMAUベンチマークテストで最先端の性能を達成しました。
音声生成テキスト
Transformers

R
mispeech
791
14
Light R1 14B DS
Apache-2.0
Light-R1-14B-DSは14Bパラメータの数学SOTAモデルで、強化学習で訓練され、AIME24/25およびGPQAベンチマークで優れた性能を発揮します。
大規模言語モデル
Transformers

L
qihoo360
2,890
33
Visualthinker R1 Zero
MIT
わずか1つの教師なし微調整2Bモデルで『ひらめきの瞬間』と応答長の増加を再現した初のマルチモーダル推論モデル
画像生成テキスト 英語
V
turningpoint-ai
578
6
DPO A5 Nlp
TRLはTransformerアーキテクチャに基づく強化学習ライブラリで、言語モデルのトレーニングとファインチューニングに使用されます。
大規模言語モデル
Transformers

D
EraCoding
26
1
Qwen2.5vl 3B VLM R1 REC 500steps
Qwen2.5-VL-3B-Instructを基にした視覚言語モデルで、VLM-R1強化学習によって強化され、指示表現理解タスクに特化しています。
テキスト生成画像
Safetensors 英語
Q
omlab
976
22
Cycleresearcher 12B Original
その他
CycleResearcherは強化学習と反復フィードバックに基づく自動研究システムで、機械学習研究のために訓練されており、コンピュータビジョン、自然言語処理などの分野をカバーしています。
大規模言語モデル
Transformers 複数言語対応

C
WestlakeNLP
250
1
Speechless Llama2 Luban Orca Platypus 13b
本モデルはAIDC-ai-business/Luban-13BとOpen-Orca/OpenOrca-Platypus2-13Bを統合したもので、Llama 2アーキテクチャに基づく130億パラメータの大規模言語モデルです。
大規模言語モデル
Transformers 英語

S
uukuguy
94
4
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98