Openr1 Distill 7B
Apache-2.0
OpenR1-Distill-7BはQwen2.5-Math-7BをMixture-of-Thoughtsデータセットでファインチューニングしたバージョンで、言語モデルに段階的な推論を教えることを目的としています。
大規模言語モデル
Transformers 英語

O
open-r1
134
6
Avern 1.5 Mintra
MIT
Qwen2.5-Coder-7B-Instruct は Qwen2.5 アーキテクチャに基づく 7B パラメータ規模のコード生成モデルで、命令微調整に特化しており、コード生成やプログラミング支援タスクに適しています。
大規模言語モデル
PyTorch
A
averntech
87
1
Nvidia.opencodereasoning Nemotron 14B GGUF
NVIDIAが開発したオープンソースのコード推論大規模言語モデルで、パラメータ規模は140億、コード生成と推論タスクに特化しています。
大規模言語モデル
N
DevQuasar
423
2
Qwen2.5 Recursive Coder 14B Instruct
Apache-2.0
Qwen2.5アーキテクチャに基づく14Bパラメータ規模のコード生成・理解モデル、Model Stock手法により複数の専門コーディングモデルを統合
大規模言語モデル
Transformers

Q
spacematt
39
2
Deepcoder 14B Preview Exl2
DeepCoder-14B-PreviewはDeepSeek-R1-Distill-Qwen-14Bを基に開発されたコード生成モデルで、検証可能なプログラミング問題の解決に特化しています。
大規模言語モデル 英語
D
cgus
46
2
Qwen2.5 CompositeFlow Coder 14B Instruct
Apache-2.0
Qwen2.5-Coder-14B-Instructベースモデルを基に、mergekitツールで複数の専門コーディングモデルを統合したハイブリッドモデル
大規模言語モデル
Transformers

Q
spacematt
31
3
Huihui Ai.deepseek V3 0324 Pruned Coder 411B GGUF
DeepSeek-V3-0324-Pruned-Coder-411B は、DeepSeek-V3 アーキテクチャに基づく、コード生成タスクに特化した剪枝最適化済みのコード生成モデルです。
大規模言語モデル
H
DevQuasar
2,706
2
Qwen2.5 Coder 32B YOYO
Qwen2.5-Coder-32B-instructはQwen2.5-Coder-32Bを基にした命令微調整バージョンで、コード生成と理解タスクに特化しています。
大規模言語モデル
Transformers

Q
YOYO-AI
14
2
EXAONE Deep 2.4B AWQ
その他
EXAONE Deepシリーズモデルは数学やプログラミングなどの推論タスクで優れた性能を発揮し、本モデルは24億パラメータのAWQ量子化バージョンです
大規模言語モデル
Transformers 複数言語対応

E
LGAI-EXAONE
751
16
Qwen2.5 Coder 0.5B Q8 0 GGUF
Apache-2.0
これはQwen2.5-Coder-0.5Bモデルを変換したGGUF形式のモデルで、コード生成タスクに適しています。
大規模言語モデル 複数言語対応
Q
ggml-org
943
5
Starcoder2 3b GGUF
Openrail
StarCoder2-3Bは、コード生成に特化した30億パラメータのオープンソースモデルで、BigCodeチームによって開発されました。
大規模言語モデル
Transformers その他

S
tensorblock
103
1
Deepseek Coder 1.3B Kexer
Apache-2.0
Deepseek-coder-1.3Bをベースに微調整されたオープンソースの生成型テキストモデルで、Kotlinコード生成タスクに特化しています。
大規模言語モデル
Transformers その他

D
JetBrains
1,937
4
Codellama 7b Python Hf
Code LlamaはMetaが開発した70億パラメータのコード生成モデルシリーズで、このバージョンはPython言語に特化して最適化されています
大規模言語モデル
Transformers その他

C
meta-llama
2,271
22
Starcoder2 3b GGUF
Openrail
StarCoder2-3Bは30億のパラメータを持つコード生成モデルで、17種類のプログラミング言語のデータを基に訓練されており、コード断片を生成することができますが、必ずしも完全に正確であるとは限りません。
大規模言語モデル
Transformers

S
nold
300
1
Tinyllama 1.1B Chat V1.0 Sql Create Context Mlx
Apache-2.0
これはTinyLlama-1.1B-Chat-v1.0をファインチューニングしたモデルで、自然言語の質問とテーブル構造定義(DDL)をSQLクエリ文に変換するために特別に設計されています。
大規模言語モデル
Transformers 英語

T
alwint3r
57
1
Whiterabbitneo 7B V1.5a
その他
WhiteRabbitNeoシリーズモデルはサイバーセキュリティ分野の攻防アプリケーションに特化しており、現在のバージョンは7Bパラメータ規模で、コード生成と分析能力を備えています。
大規模言語モデル
Transformers

W
WhiteRabbitNeo
74
50
Starling LM 7B Alpha
Apache-2.0
AIフィードバック強化学習(RLAIF)でトレーニングされた初のオープンソース大規模言語モデル、MT Benchテストで優れたパフォーマンスを発揮
大規模言語モデル
Transformers 英語

S
berkeley-nest
9,765
558
Openchat 3.5
Apache-2.0
OpenChatは革新的なオープンソース言語モデルライブラリで、C-RLFT戦略を用いて微調整されており、わずか70億パラメータでもChatGPTに匹敵する性能を実現しています。
大規模言語モデル
Transformers

O
openchat
14.35k
1,127
Codefuse 13B
その他
CodeFuse-13BはGPT-NeoXフレームワークでトレーニングされた130億パラメータのコード生成モデルで、40以上のプログラミング言語をサポートし、最大4096文字のコードシーケンスを処理できます。
大規模言語モデル
Transformers

C
codefuse-ai
31
49
Wizardcoder Python 13B V1.0
WizardCoderはEvol-Instruct手法で強化されたコード生成特化の大規模言語モデルです。
大規模言語モデル
Transformers その他

W
WizardLMTeam
681
106
Codellama 34B Instruct GGUF
CodeLlama 34B Instructは、MetaがLlama 2アーキテクチャに基づいて開発した大規模なコード生成モデルで、プログラミングタスクに特化して最適化されており、複数のプログラミング言語をサポートしています。
大規模言語モデル その他
C
TheBloke
8,348
97
Codellama 13B GGUF
CodeLlama 13B は Meta がリリースしたコード生成と理解のためのモデルで、Llama 2 アーキテクチャに基づき、プログラミングタスクに特化して最適化されています。
大規模言語モデル その他
C
TheBloke
8,068
61
Codellama 7B GGUF
CodeLlama 7BはMetaが開発した70億パラメータ規模のコード生成と理解モデルで、Llama 2アーキテクチャを基に最適化され、プログラミングタスクに特化しています。
大規模言語モデル その他
C
TheBloke
10.80k
121
Codellama 13b Hf
Code Llama 13Bは130億パラメータの生成型コードモデルで、汎用コード合成と理解のために設計されています
大規模言語モデル
Transformers その他

C
codellama
6,829
107
Starcoderbase 7b
Openrail
StarCoderBase-7Bはパラメータ規模が70億のコード生成モデルで、80種類以上のプログラミング言語をサポートし、コード補完と生成タスクに特化しています。
大規模言語モデル
Transformers その他

S
bigcode
2,128
33
Wizardcoder 15B V1.0
Openrail
WizardCoder-33B-V1.1はdeepseek-coder-33b-baseをベースに訓練されたオープンソースのコード大規模言語モデルで、HumanEvalなどのコード生成ベンチマークで優れた性能を発揮します。
大規模言語モデル
Transformers その他

W
WizardLMTeam
521
759
Codegen 350M Mono Custom Functions Dataset Python V2
Bsd-3-clause
Salesforce/codegen-350M-monoを微調整したPythonコード生成モデル、カスタム関数生成に特化
大規模言語モデル
Transformers

C
sharoz
130
2
Codeparrot
CodeParrotは、GPT - 2アーキテクチャ(15億パラメータ)に基づいて訓練されたPythonコード生成モデルで、Pythonコードの自動生成に特化しています。
大規模言語モデル
Transformers その他

C
codeparrot
1,342
105
Gpt Neo 125M Code Clippy Dedup 2048
GPT-Neoアーキテクチャに基づく125Mパラメータのコード生成モデル。CodeClippyデータセットでファインチューニングされ、2048長のシーケンス生成をサポート
大規模言語モデル
G
flax-community
1,528
14
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98