Phi 2 GGUF
その他
Phi-2はマイクロソフトが開発した小型ながら強力な言語モデルで、27億のパラメータを持ち、効率的な推論と高品質なテキスト生成に特化しています。
大規模言語モデル 複数言語対応
P
TheBloke
41.5M
205
Roberta Large
MIT
マスク言語モデリングの目標で事前学習された大型英語言語モデルで、改良されたBERTの学習方法を採用しています。
大規模言語モデル 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERTはBERT基礎モデルの蒸留バージョンで、同等の性能を維持しながら、より軽量で高効率です。シーケンス分類、タグ分類などの自然言語処理タスクに適しています。
大規模言語モデル 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instructは多言語大規模言語モデルで、多言語対話ユースケースに最適化されており、一般的な業界ベンチマークで優れた性能を発揮します。
大規模言語モデル 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM - RoBERTaは、100言語の2.5TBのフィルタリングされたCommonCrawlデータを使って事前学習された多言語モデルで、マスク言語モデリングの目標で学習されています。
大規模言語モデル 複数言語対応
X
FacebookAI
9.6M
664
Roberta Base
MIT
Transformerアーキテクチャに基づく英語の事前学習モデルで、マスク言語モデリングの目標を通じて大量のテキストでトレーニングされ、テキスト特徴抽出と下流タスクの微調整をサポートします。
大規模言語モデル 英語
R
FacebookAI
9.3M
488
Opt 125m
その他
OPTはMeta AIが公開したオープンプリトレーニングトランスフォーマー言語モデルスイートで、パラメータ数は1.25億から1750億まであり、GPT-3シリーズの性能に対抗することを目指しつつ、大規模言語モデルのオープンな研究を促進するものです。
大規模言語モデル 英語
O
facebook
6.3M
198
1
transformersライブラリに基づく事前学習モデルで、様々なNLPタスクに適用可能
大規模言語モデル
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1はMetaが発表した多言語大規模言語モデルシリーズで、8B、70B、405Bのパラメータ規模を持ち、8種類の言語とコード生成をサポートし、多言語対話シーンを最適化しています。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5ベーシック版はGoogleによって開発されたテキスト-to-テキスト変換Transformerモデルで、パラメータ規模は2.2億で、多言語NLPタスクをサポートしています。
大規模言語モデル 複数言語対応
T
google-t5
5.4M
702
Xlm Roberta Large
MIT
XLM - RoBERTaは、100言語の2.5TBのフィルタリングされたCommonCrawlデータを使って事前学習された多言語モデルで、マスク言語モデリングの目標を用いて訓練されています。
大規模言語モデル 複数言語対応
X
FacebookAI
5.3M
431
Bart Large Mnli
MIT
BART-largeアーキテクチャに基づき、MultiNLIデータセットでファインチューニングされたゼロショット分類モデル
大規模言語モデル
B
facebook
3.7M
1,364
T5 Small
Apache-2.0
T5-SmallはGoogleが開発した6000万パラメータのテキスト変換モデルで、統一されたテキストからテキストへのフレームワークを用いて様々なNLPタスクを処理します。
大規模言語モデル 複数言語対応
T
google-t5
3.7M
450
Flan T5 Base
Apache-2.0
FLAN-T5はT5モデルを指令微調整で最適化した言語モデルで、多言語タスクの処理をサポートし、同じパラメータ数で元のT5モデルよりも性能が優れています。
大規模言語モデル 複数言語対応
F
google
3.3M
862
Albert Base V2
Apache-2.0
ALBERTはTransformerアーキテクチャに基づく軽量版の事前学習言語モデルで、パラメータ共有メカニズムによりメモリ使用量を削減し、英語のテキスト処理タスクに適しています。
大規模言語モデル 英語
A
albert
3.1M
121
Distilbert Base Multilingual Cased
Apache-2.0
DistilBERTはBERTベース多言語モデルの蒸留バージョンで、BERTの97%の性能を維持しながら、パラメータが少なく、速度が速いです。104種類の言語をサポートし、様々な自然言語処理タスクに適しています。
大規模言語モデル
Transformers 複数言語対応

D
distilbert
2.8M
187
Distilgpt2
Apache-2.0
DistilGPT2はGPT - 2の軽量級蒸留バージョンで、8200万のパラメータを持ち、GPT - 2の核心的なテキスト生成能力を保持しながら、サイズが小さく、速度が速い。
大規模言語モデル 英語
D
distilbert
2.7M
527
BLEURT 20 D12
PyTorchを用いて実装されたBLEURTモデルで、自然言語処理におけるテキスト評価タスクに使用されます。
大規模言語モデル
Transformers

B
lucadiliello
2.6M
1
Llama 3.2 1B Instruct
Llama 3.2はMetaが開発した多言語大規模言語モデルシリーズで、1Bおよび3B規模の事前学習および命令チューニング生成モデルを含み、多言語対話シナリオ向けに最適化され、インテリジェント検索と要約タスクをサポートします。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
2.4M
901
Qwen2.5 0.5B Instruct
Apache-2.0
Gensyn強化学習群専用に設計された0.5Bパラメータの命令微調整モデルで、ローカルでの微調整トレーニングをサポート
大規模言語モデル
Transformers 英語

Q
Gensyn
2.4M
5
Qwen2.5 1.5B Instruct
Apache-2.0
Gensyn RL Swarm専用に設計された15億パラメータの命令微調整モデルで、ピアツーピア強化学習によるローカル微調整をサポート
大規模言語モデル
Transformers 英語

Q
Gensyn
2.1M
4
Llama 3.2 1B
Llama 3.2はMetaが発表した多言語大規模言語モデルシリーズで、1Bと3Bパラメータの事前学習済みおよび指示調整済み生成モデルを含み、多言語対話シナリオ向けに最適化されており、プロキシ検索や要約タスクをサポートします。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
2.1M
1,866
Bart Base
Apache-2.0
BARTは双方向エンコーダと自己回帰デコーダを組み合わせたTransformerモデルで、テキスト生成と理解タスクに適しています。
大規模言語モデル 英語
B
facebook
2.1M
183
Bio ClinicalBERT
MIT
Bio+Clinical BERTはBioBERTから初期化された臨床BERTモデルで、MIMIC IIIのすべてのノートで訓練されており、生物医学および臨床テキスト処理に適しています。
大規模言語モデル 英語
B
emilyalsentzer
2.0M
334
Deepseek R1 GGUF
MIT
DeepSeek-R1はUnslothによって最適化された1.58ビット動的量子化大規模言語モデルで、MoEアーキテクチャを採用し、英語タスク処理をサポート
大規模言語モデル 英語
D
unsloth
2.0M
1,045
Biomednlp BiomedBERT Base Uncased Abstract Fulltext
MIT
BiomedBERTはPubMedの抄録とPubMedCentralの全文を用いて事前学習された生物医学分野特化の言語モデルで、多くの生物医学NLPタスクで最先端の性能を達成しています。
大規模言語モデル 英語
B
microsoft
1.7M
240
Deepseek R1
MIT
DeepSeek-R1は深度求索が開発した第一世代推論モデルで、大規模な強化学習トレーニングにより、数学、コード、推論タスクで優れた性能を発揮します。
大規模言語モデル
Transformers

D
deepseek-ai
1.7M
12.03k
Codebert Python
このモデルはmicrosoft/codebert-base-mlmをベースにPythonコードで訓練されたマスク言語モデルで、主にコード評価と生成タスクに使用されます。
大規模言語モデル
Transformers

C
neulab
1.7M
25
Camembert Base
MIT
RoBERTaに基づいて構築されたフランス語の最先端の言語モデルで、6種類の異なるバージョンを提供します。
大規模言語モデル
Transformers フランス語

C
almanach
1.7M
87
Firefunction V2 GGUF
FireFunction V2はFireworks AIが開発した商用利用可能な最先端の関数呼び出しモデルで、Llama 3をベースに訓練され、並列関数呼び出しと優れた指示追従能力をサポートしています。
大規模言語モデル
F
MaziyarPanahi
1.6M
18
Deberta V3 Base
MIT
DeBERTaV3はDeBERTaを改良した事前学習言語モデルで、勾配分離埋め込み共有のELECTRAスタイル事前学習手法により効率を向上させ、自然言語理解タスクで優れた性能を発揮します。
大規模言語モデル 英語
D
microsoft
1.6M
316
Llama 3.2 3B Instruct
Llama 3.2はMetaが開発した多言語大規模言語モデルシリーズで、1Bと3B規模の事前学習および指示チューニング生成モデルを含み、多言語対話シーンに最適化されています。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
1.6M
1,391
Finbert
FinBERTは金融テキストの感情分析に特化した事前学習済みの自然言語処理モデルです。
大規模言語モデル 英語
F
ProsusAI
1.6M
864
Openelm 1 1B Instruct
OpenELMは、Transformerモデルの各層で効率的にパラメータを割り当てる階層的スケーリング戦略を採用した、オープンソースの効率的な言語モデルのセットです。
大規模言語モデル
Transformers

O
apple
1.5M
62
Qwen2 7B Instruct GGUF
Qwen2-7B-InstructのGGUF量子化バージョン、ローカル展開と推論に適しています
大規模言語モデル
Q
MaziyarPanahi
1.5M
11
Byt5 Small
Apache-2.0
ByT5はGoogleのT5のトークナイザーフリーバージョンで、生のUTF-8バイトを直接処理し、多言語テキスト処理をサポートし、ノイズデータに対して優れた性能を発揮します。
大規模言語モデル 複数言語対応
B
google
1.4M
69
Deberta Large Mnli
MIT
DeBERTa-V2-XXLargeは分離注意メカニズムと強化型マスクデコーダを基に改良されたBERTモデルで、多くの自然言語理解タスクで優れた性能を発揮します。
大規模言語モデル
Transformers 英語

D
microsoft
1.4M
18
Tinyllama 1.1B Chat V1.0
Apache-2.0
ベビーアルパカは11億パラメータの軽量Llamaモデルで、3兆トークンのデータで事前学習され、対話微調整とアライメント最適化を経ており、リソース制約のあるシナリオに適しています。
大規模言語モデル
Transformers 英語

T
TinyLlama
1.4M
1,237
Bartpho Syllable Base
MIT
BARTphoはベトナム語向けの事前訓練シーケンス・ツー・シーケンスモデルで、BARTアーキテクチャに基づき、ベトナム語に特化して最適化されています。
大規模言語モデル
Transformers

B
vinai
1.3M
1
Stablebeluga2
Llama2 70Bモデルを微調整した大規模言語モデルで、Orcaスタイルのデータセットで訓練されており、複雑な指示の実行に優れています
大規模言語モデル
Transformers 英語

S
petals-team
1.3M
19
Roberta Base
韓国語事前学習に基づくRoBERTaモデルで、様々な韓国語自然言語処理タスクに適用可能です。
大規模言語モデル
Transformers 韓国語

R
klue
1.2M
33
Distilroberta Base
Apache-2.0
DistilRoBERTaはRoBERTa-baseモデルの蒸留バージョンで、パラメータが少なく、速度が速く、英語テキスト処理タスクに適しています。
大規模言語モデル 英語
D
distilbert
1.2M
153
- 1
- 2
- 3
- 4
- 5
- 6
- 10