Gemma 1.1 7b It
GemmaはGoogleが提供する軽量級のオープンモデルシリーズで、Geminiと同じ技術に基づいて構築されており、テキスト生成タスクに適しています。
大規模言語モデル
Transformers

G
google
17.43k
271
Gemma3 27b Abliterated Dpo
mlabonne/gemma-3-27b-it-abliteratedをベースにファインチューニングされた大規模言語モデルで、Unsloth高速フレームワークとHuggingfaceのTRLライブラリを使用してトレーニングされ、効率が2倍向上しました。
大規模言語モデル
Transformers 英語

G
summykai
326
3
Ice0.101 20.03 RP GRPO 1
Apache-2.0
Unsloth無惰性最適化フレームワークとHuggingface TRLトレーニングライブラリで最適化された薄霧モデル、2倍速のトレーニング効率を実現
大規模言語モデル
Transformers 英語

I
icefog72
55
2
Nano R1 Model
Apache-2.0
UnslothとHuggingface TRLライブラリで最適化されたQwen2モデル、推論速度が2倍向上
大規模言語モデル
Transformers 英語

N
Mansi-30
25
2
RWKV7 Goose Pile 168M HF
Apache-2.0
フラッシュ線形アテンションフォーマットを採用したRWKV-7モデルで、Pileデータセットでトレーニングされ、英語テキスト生成タスクをサポートします。
大規模言語モデル
Transformers 英語

R
RWKV
57
2
RWKV7 Goose World3 1.5B HF
Apache-2.0
フラッシュ線形アテンション(flash-linear attention)形式を採用したRWKV-7モデルで、英語テキスト生成タスクをサポートします。
大規模言語モデル
Safetensors 英語
R
RWKV
70
2
Llama 3.2 11B Vision Medical
Apache-2.0
unsloth/Llama-3.2-11B-Vision-Instructを基に微調整されたモデルで、UnslothとHuggingfaceのTRLライブラリを使用してトレーニングされ、速度が2倍向上しました。
テキスト生成画像
Transformers 英語

L
Varu96
25
1
Doge 320M
Apache-2.0
Dogeは動的マスクアテンションメカニズムを採用したシーケンス変換モデルで、多層パーセプトロンまたはクロスドメインエキスパート混合を使用して状態変換を行います。
大規模言語モデル
Transformers 複数言語対応

D
SmallDoge
3,028
4
Model
Apache-2.0
これはファインチューニングされたPhi-4モデルで、UnslothとTRLライブラリを使ってトレーニング速度を2倍に向上させ、テキスト生成タスクに特化しています。
大規模言語モデル
Transformers 英語

M
namrateshInfra
101
1
Stella En 1.5B V5 GGUF
MIT
Stella_en_1.5B_v5は英語ベースのテキスト生成モデルで、パラメータ規模は15億で、文の類似度などのタスクに適しています。
大規模言語モデル 英語
S
abhishekbhakat
113
3
Llama3.1 8b Instruct Summarize Q4 K M
Apache-2.0
Meta-Llama-3.1-8B-Instructを基にした4ビット量子化バージョンで、UnslothとHuggingface TRLライブラリを使用して訓練され、速度が2倍向上しました。
大規模言語モデル 英語
L
raaec
107
0
Gemma 2 9B It SPPO Iter3
自己対戦選好最適化手法を用いて第3反復で開発された89億パラメータ言語モデル。google/gemma-2-9b-itをベースに、UltraFeedbackデータセットで微調整
大規模言語モデル
Transformers 英語

G
UCLA-AGI
6,704
125
Gemma 2 9b It
GemmaはGoogleが提供する軽量級オープン大規模言語モデルシリーズで、Geminiモデルを作成したのと同じ技術に基づいて構築されており、さまざまなテキスト生成タスクに適しています。
大規模言語モデル
Transformers

G
google
336.05k
705
Mythomax L2 13b Q4 K M GGUF
その他
MythoMax L2 13bはQ4_K_M量子化バージョンに基づく大規模言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル 英語
M
Clevyby
1,716
2
Meta Llama Meta Llama 3 8B Instruct 4bits
Meta Llama 3 8Bパラメータ版の命令調整モデルで、対話シナリオ向けに最適化されており、優れた支援性と安全性を発揮します。
大規模言語モデル
Transformers

M
RichardErkhov
28
1
Llama 3 NeuralPaca 8b
Meta LLAMA-3-8Bをベースに構築された最適化モデル。遅延なし最適化技術とHuggingface TRLライブラリを使用し、速度を2倍向上
大規模言語モデル
Transformers 英語

L
NeuralNovel
21
7
K2
Apache-2.0
K2は650億パラメータ規模の大規模言語モデルで、完全に透明なトレーニング手法により、Llama 2 70Bを35%の計算量優位で凌駕しています。
大規模言語モデル
Transformers 英語

K
LLM360
109
89
Zephyr Orpo 141b A35b V0.1 GGUF
Apache-2.0
Mixtral-8x22B-v0.1をファインチューニングした1410億パラメータの混合エキスパートモデル(MoE)、活性化パラメータ350億、主に英語テキスト生成タスク用
大規模言語モデル 英語
Z
MaziyarPanahi
10.04k
29
Recurrentgemma 2b
RecurrentGemmaはGoogleが新しい循環アーキテクチャに基づいて開発したオープン言語モデルファミリーで、事前学習版と命令チューニング版があり、様々なテキスト生成タスクに適しています。
大規模言語モデル
Transformers

R
google
1,941
92
Microllama
Apache-2.0
MicroLlamaは個人開発者keeeeenwが500ドルの予算内で事前学習した3億パラメータのLlamaモデルで、英語テキスト生成タスクに特化しています。
大規模言語モデル
Transformers 英語

M
keeeeenw
2,955
46
Gemma 1.1 2b It
GemmaはGoogleが提供する軽量級オープンモデルシリーズで、Geminiと同じ技術を基に構築されており、様々なテキスト生成タスクに適しています。
大規模言語モデル
Transformers

G
google
71.01k
158
Mixtral Chat 7b
MIT
これはmergekitツールを使用して複数のMistral-7Bバリアントモデルを統合したハイブリッドモデルで、テキスト生成タスクに特化しています。
大規模言語モデル 英語
M
LeroyDyer
76
2
Ministral 4b Instruct
Apache-2.0
Ministralは40億パラメータのGPT類似モデルで、Mistralモデルと同じアーキテクチャを採用していますが、規模が小さく、主に英語テキスト生成タスクに使用されます。
大規模言語モデル
Transformers 英語

M
ministral
151
5
Ministral 3b Instruct
Apache-2.0
MinistralはMistralアーキテクチャに基づく小型言語モデルシリーズで、パラメータ規模は30億で、主に英語テキスト生成タスクに使用されます。
大規模言語モデル
Transformers 英語

M
ministral
15.89k
53
Gemma 7b Zephyr Sft
その他
Google Gemma 7Bモデルをベースに、Zephyr SFTレシピでファインチューニングされた大規模言語モデルで、主にテキスト生成タスクに使用されます
大規模言語モデル
Transformers

G
wandb
19
2
Daringmaid 13B
勇敢なメイド-13Bは、より賢く命令に従うことに長けたNoromaidのバージョンで、複数の優れたモデルの特徴を融合して作成されました。
大規模言語モデル
Transformers 英語

D
Kooten
76
15
Tinyllama 1.1B Chat V0.4 GGUF
Apache-2.0
TinyLlama-1.1Bはコンパクトな大規模言語モデルで、11億のパラメータを持ち、Llama 2アーキテクチャに基づき、計算リソースとメモリが制限された環境向けに最適化されています。
大規模言語モデル 英語
T
afrideva
65
4
Tinymistral 248M GGUF
Apache-2.0
TinyMistral-248MはMistral 7Bモデルを基に事前学習された小型言語モデルで、パラメータ規模は約2.48億に縮小されており、主に下流タスクのファインチューニングに使用されます。
大規模言語モデル 英語
T
afrideva
211
5
Tinymistral 248M
Apache-2.0
Mistral 7Bモデルを基に2.48億パラメータまで縮小した言語モデルで、テキスト生成タスク向けに設計されており、下流タスクの微調整に適しています。
大規模言語モデル
Transformers 英語

T
Locutusque
1,127
46
Mistral 7b Guanaco
Apache-2.0
Llama2アーキテクチャに基づく事前学習済み言語モデルで、英語テキスト生成タスクに適しています
大規模言語モデル
Transformers 英語

M
kingabzpro
67
3
Gpt2 Demo
その他
GPT-2はTransformerアーキテクチャに基づく自己監督事前学習言語モデルで、テキスト生成タスクに長けています。
大規模言語モデル
Transformers

G
demo-leaderboard
19.21k
1
Tinyllama 42M Fp32
MIT
これはTinyStoriesデータセットで訓練された42MパラメータのLlama 2アーキテクチャfloat32精度モデルで、シンプルなテキスト生成タスクに適しています。
大規模言語モデル
Transformers

T
nickypro
517
3
Instruct Llama70B Dolly15k
Llama-2-70Bを微調整した命令追従モデルで、Dolly15kデータセットでトレーニングされ、英語テキスト生成タスクに適しています。
大規模言語モデル
Transformers 英語

I
Brillibits
114
1
Pile T5 Large
Pile-T5 Large は T5x ライブラリを使用し、The Pile データセットでトレーニングされたエンコーダ-デコーダモデルで、主に英語のテキストからテキストを生成するタスクに使用されます。
大規模言語モデル
Transformers 英語

P
EleutherAI
112
15
Llama 2 7b Hf
Llama 2はMetaによって開発された70億パラメータ規模の事前学習済みテキスト生成モデルで、オープンソースの大規模言語モデルシリーズに属します
大規模言語モデル
Transformers 英語

L
meta-llama
914.57k
2,038
Llama 2 70b Hf
Llama 2はMetaが開発したオープンソース大規模言語モデルシリーズで、70億から700億パラメータ規模をカバーし、英語テキスト生成タスクをサポートします。
大規模言語モデル
Transformers 英語

L
meta-llama
33.86k
849
Cerebras GPT 2.7B
Apache-2.0
Cerebras-GPT 2.7BはTransformerアーキテクチャに基づく言語モデルで、大規模言語モデルの研究を支援することを目的としており、自然言語処理などの分野の基礎モデルとして利用できます。
大規模言語モデル
Transformers 英語

C
cerebras
269
44
Cerebras GPT 590M
Apache-2.0
Cerebras-GPT 590MはTransformerアーキテクチャに基づく言語モデルで、Cerebras-GPTモデルファミリーに属し、大規模言語モデルの拡張規則を研究し、Cerebrasのソフトウェアとハードウェアスタックで大規模言語モデルをトレーニングする際の簡便性と拡張性を示すことを目的としています。
大規模言語モデル
Transformers 英語

C
cerebras
2,430
21
Cerebras GPT 111M
Apache-2.0
Cerebras-GPTシリーズの111Mパラメータモデルで、GPT-3スタイルのアーキテクチャを採用し、The Pileデータセットでトレーニングされ、Chinchillaスケーリング則に従って計算最適化を実現しています。
大規模言語モデル
Transformers 英語

C
cerebras
5,975
76
Pythia 1b
Apache-2.0
Pythia-1BはEleutherAIが開発した解釈可能性研究専用の言語モデルで、Pythiaスイートの10億パラメータ規模バージョンであり、The Pileデータセットでトレーニングされています。
大規模言語モデル
Transformers 英語

P
EleutherAI
79.69k
38
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98