Deepseek R1 Distill Qwen 14B GRPO Taiwan Spirit
これはQwen-14Bモデルをベースに微調整されたバージョンで、GRPO方法を用いて訓練され、テキスト生成タスクに適しています。
大規模言語モデル
Transformers

D
kartd
111
1
Arshstory
MIT
Llamaアーキテクチャに基づく5億パラメータのテキスト生成モデルで、ストーリー作成のために特別に設計されています。
テキスト生成
Transformers

A
arshiaafshani
131
1
Sarvamai Sarvam M GGUF
Apache-2.0
これはSarvam-mモデルの量子化バージョンで、複数のインド言語と英語のテキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
S
bartowski
845
1
Magtie V1 12B
Apache-2.0
MagTie-v1-12BはDARE TIESアルゴリズムで統合された12Bパラメータの言語モデルで、複数の事前学習モデルの利点を融合
大規模言語モデル
Transformers

M
grimjim
32
2
Mistral Small 24B Instruct 2501 GGUF
Apache-2.0
Mistral-Small-24B-Instruct-2501は24Bパラメータ規模の命令ファインチューニング大規模言語モデルで、多言語テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
M
bartowski
48.61k
111
Acip Llama2 13b
ACIPプロジェクトが提供するLlama-2-13b圧縮可能バージョン、動的な圧縮率調整をサポート
大規模言語モデル
Transformers 英語

A
MerantixMomentum
27
1
Salesforce.llama Xlam 2 70b Fc R GGUF
Llama-xLAM-2-70b-fc-r は Salesforce が公開した大規模言語モデルで、Llama 2 アーキテクチャを基に、700億のパラメータを持っています。
大規模言語モデル
S
DevQuasar
238
1
Academic Ds 9B
Apache-2.0
DeepSeek-V3アーキテクチャに基づく90億パラメータの大規模言語モデルで、完全にオープンソースかつ英語のみの3500億以上のトークンデータセットを使用してゼロからトレーニングされ、オープンソースコミュニティの開発とデバッグのために設計されています。
大規模言語モデル
Transformers 英語

A
ByteDance-Seed
39
3
MT3 Gen10 Gemma 2 9B
これはGemma-2-9Bシリーズモデルを基にした融合モデルで、DARE TIES手法を用いて複数のGemmaバリアントを統合し、テキスト生成能力を向上させています。
大規模言語モデル
Transformers

M
zelk12
30
3
MT Gen10 Gemma 2 9B
これはGemma-2-9BシリーズモデルをベースにDARE TIES手法でマージしたマルチモデル融合バージョンで、複数のGemmaバリアントの長所を統合しています。
大規模言語モデル
Transformers

M
zelk12
26
2
Mtmme Merge Gemma 2 9B
Gemma-2BとGemma-9BモデルをSLERP方法でマージしたテキスト生成モデル
大規模言語モデル
Transformers

M
zelk12
19
2
Irix 12B Model Stock
これはmergekitツールを使用してモデルストック手法により複数の12Bパラメータ規模の言語モデルを統合した結果です
大規模言語モデル
Transformers

I
DreadPoor
373
9
Fibonacci 2 14B
MIT
Phi 4アーキテクチャに基づく大規模言語モデルで、140億のパラメータを持ち、自然言語処理とテキスト対話タスクに最適化されています。
大規模言語モデル 複数言語対応
F
fibonacciai
97
13
L3.3 Cu Mai R1 70b
Llama3アーキテクチャに基づく70Bパラメータの大規模言語モデル、特別な最適化処理を施した
大規模言語モデル
Safetensors
L
Steelskull
164
14
Diffullama
Apache-2.0
Llama-2-7bをファインチューニングした拡散言語モデル
大規模言語モデル
Transformers

D
diffusionfamily
10.88k
8
Mistral NeMo Minitron 8B Base IMat GGUF
その他
これはnvidia/Mistral-NeMo-Minitron-8B-Baseモデルを基にllama.cpp imatrix量子化を行った成果物で、モデルの使用とデプロイにより多くの選択肢を提供します。
大規模言語モデル
M
legraphista
1,115
1
Wizardlm 2 7B Abliterated GGUF
Apache-2.0
WizardLM-2-7B-abliteratedのLlamacpp imatrix量子化バージョンで、さまざまな量子化オプションを提供し、異なるハードウェア構成に対応します。
大規模言語モデル
W
bartowski
2,561
13
Lola V1
LOLAはスパース混合エキスパート(Mixture-of-Experts)Transformerアーキテクチャに基づき、160以上の言語をサポートする超大规模多言語大規模モデルで、自然言語生成と理解タスクにおいて競争力があります。
大規模言語モデル
Transformers その他

L
dice-research
867
10
Prodigy 7B GGUF Imatrix
Prodigy_7BのGGUF-Imatrix量子化バージョン、重要度マトリクス技術で量子化品質を向上
大規模言語モデル
P
Lewdiculous
58
7
Fusellm 7B
Apache-2.0
FuseLLM-7Bは複数のオープンソース大規模言語モデルの知識を融合した統合モデルで、知識融合技術により異なるアーキテクチャのLLM能力を1つのモデルに統合しています。
大規模言語モデル
Transformers 複数言語対応

F
Wanfq
45
22
Laser Dolphin Mixtral 2x7b Dpo
Apache-2.0
Dolphin-2.6-Mistral-7B-DPO-Laserをベースにした中規模混合エキスパート(MoE)実装で、評価性能が平均約1ポイント向上
大規模言語モデル
Transformers

L
macadeliccc
133
57
Caplattessdolxaboros Yi 34B 200K DARE Ties HighDensity
その他
これはYi-34B-200Kベースモデルを基に、DARE Tiesメソッドで複数の同系モデルを高密度マージしたモデルで、200Kの長文コンテキスト処理能力を有します。
大規模言語モデル
Transformers 英語

C
brucethemoose
94
12
GPT Prompt Expansion Fooocus V2
GPT2ベースのプロンプト拡張モデルで、テキスト生成プロンプトの品質と多様性を向上させる
大規模言語モデル
Transformers

G
LykosAI
225
10
Tiny Vicuna 1B GGUF
Tiny-Vicuna-1BはTinyLLama 1.1BをベースにWizardVicunaデータセットでファインチューニングした軽量モデルで、初期段階の実験反復を目的として設計されています。
大規模言語モデル
T
afrideva
208.74k
6
Spelling Correction Multilingual Base
MIT
英語とドイツ語のスペルミスや句読点を修正するための実験的モデル
テキスト生成
Transformers 複数言語対応

S
oliverguhr
655
11
Flan T5 Xxl Sharded Fp16
Apache-2.0
FLAN-T5 XXLはGoogleがリリースしたT5モデルのバリアントで、1000以上の追加タスクでファインチューニングされており、複数の言語をサポートし、オリジナルのT5モデルよりも優れた性能を発揮します。
大規模言語モデル
Transformers

F
philschmid
531
54
Reward Model Deberta V3 Large
MIT
この報酬モデルは、与えられた質問に対して、人間の評価者がどの生成された回答をより良いと判断するかを予測できるように訓練されています。
大規模言語モデル
Transformers 英語

R
OpenAssistant
796
23
Distilroberta Base Finetuned Wikitext2
Apache-2.0
このモデルは、wikitext2データセットでdistilroberta-baseを微調整したバージョンで、主にテキスト生成タスクに使用されます。
大規模言語モデル
Transformers

D
lamyae
79
0
Tinybert L 4 H 312 V2 Finetuned Wikitext103
このモデルはwikitextデータセットでTinyBERT_L-4_H-312_v2をファインチューニングしたバージョンで、主にテキスト関連タスクに使用されます。
大規模言語モデル
Transformers

T
saghar
20
0
Tinybert General 6L 768D Finetuned Wikitext103
このモデルはwikitextデータセットでTinyBERT_General_6L_768Dをファインチューニングしたバージョンで、主にテキスト関連タスクに使用されます。
大規模言語モデル
Transformers

T
saghar
16
0
Distilroberta Base Finetuned Wikitext2
Apache-2.0
このモデルは、wikitext2データセットでファインチューニングされたdistilroberta-baseベースのバージョンで、主にテキスト生成タスクに使用されます。
大規模言語モデル
Transformers

D
Rawat29
47
0
Simctg Wikitext103
SimCTGフレームワークに基づいて訓練されたGPT - 2言語モデルで、対比検索方法を用いてより首尾一貫したテキストを生成します。
大規模言語モデル
Transformers

S
cambridgeltl
19
1
Distilroberta Base Finetuned Wikitext2
Apache-2.0
このモデルは、wikitext2データセットで微調整されたdistilroberta-baseベースのバージョンで、主にテキスト生成タスクに使用されます。
大規模言語モデル
Transformers

D
lucius
37
0
Gpt2 Medium Dutch Embeddings
GPT-2中規模版を基にしたオランダ語モデルで、語彙埋め込み層のみ再学習されてオランダ語に適応しています。
大規模言語モデル その他
G
GroNLP
27
3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98