Unireason Qwen3 14B RL I1 GGUF
Apache-2.0
UniReason-Qwen3-14B-RL は量子化された多領域適用モデルで、特にテキスト生成と数学推理タスクに長けています。
大規模言語モデル
Transformers 英語

U
mradermacher
302
1
Brtgpt 124m Base
BrtGPT-124M-Baseは大量の英文コーパスを用いて事前学習された基礎モデルで、無料で利用でき、オープンソースモデルの使用が煩雑で処理能力要求が高いという問題を解決しました。
大規模言語モデル
Transformers

B
Bertug1911
2,128
1
Uzmi Gpt
Apache-2.0
GPT-2はOpenAIによって開発されたオープンソースの言語モデルで、Transformerアーキテクチャに基づいており、一貫性のあるテキストを生成できます。
大規模言語モデル 英語
U
rajan3208
30
2
Orpheus 3b 0.1 Ft Q8 0 GGUF
Apache-2.0
このモデルはcanopylabs/orpheus-3b-0.1-ftから変換されたGGUF形式モデルで、テキスト生成タスクに適しています。
大規模言語モデル 英語
O
dodgeinmedia
22
0
Deepseek R1 Chinese Law
Apache-2.0
UnslothとHuggingface TRLライブラリでトレーニングされたLlamaモデル、推論速度が2倍向上
大規模言語モデル
Transformers 英語

D
corn6
74
2
Qwq 32B Bnb 4bit
Apache-2.0
Qwen/QwQ-32Bの4ビット量子化バージョンで、BitsAndBytesライブラリを使用して実装されており、リソースが制限された環境でのテキスト生成タスクに適しています。
大規模言語モデル
Transformers 英語

Q
fantos
115
4
Travelbot
Apache-2.0
UnslothとHuggingface TRLライブラリでトレーニングされたLlamaモデル、推論速度が2倍向上
大規模言語モデル
Transformers 英語

T
kitty528
9,146
2
Mistral Small 24B Instruct 2501 GPTQ G128 W4A16 MSE
Apache-2.0
これはmistralai/Mistral-Small-24B-Instruct-2501モデルの4ビット量子化バージョンで、ConfidentialMind.comによって量子化され、より小さく、より高速なモデルを実現し、性能の損失は極めて小さいです。
大規模言語モデル 英語
M
ConfidentialMind
93
1
Krx Qwen2 7b It X
Apache-2.0
unsloth/Qwen2-7B-Instructをファインチューニングした命令追従モデルで、UnslothとTRLライブラリを使用してトレーニングされ、速度が2倍向上
大規模言語モデル
Transformers 複数言語対応

K
2point5p
18
2
Gguf Q5 K M NanoLM 1B Instruct V2
Gpl-3.0
これはNanoLM-1B-Instruct-v2を基にGGUF形式に変換されたモデルで、テキスト生成タスクに適しています。
大規模言語モデル 英語
G
Felladrin
49
1
Nanolm 1B Instruct V1.1
Gpl-3.0
NanoLM-1B-Instruct-v1.1は10億パラメータ規模の小型インストラクションチューニング言語モデルで、多分野の英文テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
N
Mxode
24
1
Mini Magnum 12b V1.1 GGUF
その他
Mini-Magnum-12B-V1.1はintervitens/mini-magnum-12b-v1.1ベースモデルに基づいて構築されたテキスト生成モデルで、英文をサポートし、特定の量子化方式を採用しています。
大規模言語モデル 英語
M
Reiterate3680
252
2
Smollm 135M 4bit
Apache-2.0
これは4ビット量子化された1億3500万パラメータの小型言語モデルで、リソースが限られた環境でのテキスト生成タスクに適しています。
大規模言語モデル
Transformers 英語

S
mlx-community
312
1
Athena 70B L3 I1 GGUF
Athena-70B-L3は70Bパラメータ規模の大規模言語モデルで、英文テキスト生成タスクをサポートし、パラメータ効率的なファインチューニング技術を採用しています。
大規模言語モデル
Transformers 英語

A
mradermacher
141
4
Llmc Gpt2 774M 150B
MIT
これはGPT-2アーキテクチャに基づく774Mパラメータの言語モデルで、FineWebデータセットの1500億トークンでトレーニングされています。
大規模言語モデル
Transformers 英語

L
mdouglas
18
1
Chewy Lemon Cookie 11B GGUF
Chewy-Lemon-Cookie-11B は Mistral アーキテクチャに基づく110億パラメータの大規模言語モデルで、テキスト生成とロールプレイタスクに特化しています。
大規模言語モデル 英語
C
mradermacher
296
2
Shotluck Holmes 1.5
Apache-2.0
Shot2Story-20Kは、入力された画像を一貫性のあるテキスト記述や物語に変換できる、画像からテキストを生成するモデルです。
画像生成テキスト
Transformers 英語

S
RichardLuo
158
3
Retnet 1.3B 100B
MIT
SlimPajama-627Bデータセットでトレーニングされたテキスト生成モデルで、網膜ネットワークアーキテクチャを採用しています。
大規模言語モデル 複数言語対応
R
fla-hub
57
1
Matter 0.1 7B GGUF
Apache-2.0
Matter 7BはMistral 7Bをファインチューニングしたモデルで、テキスト生成タスク向けに設計されており、対話型インタラクションと関数呼び出しをサポートします。
大規模言語モデル 英語
M
munish0838
127
1
Lzlv Limarpv3 L2 70b GGUF
これはDoctor-Shotgun/lzlv-limarpv3-l2-70bモデルの静的量子化バージョンで、さまざまなニーズに対応するために複数の量子化オプションを提供しています。
大規模言語モデル 英語
L
mradermacher
67
3
Litellama 460M 1T
MIT
LiteLlamaはMeta AIのLLaMa 2の簡素化版で、4.6億パラメータのみを含み1兆トークンで訓練されたオープンソース言語モデル
大規模言語モデル
Transformers 英語

L
ahxt
1,225
162
Rose 20B GGUF
Rose 20BはLLaMAアーキテクチャに基づく20Bパラメータの大規模言語モデルで、Alpacaスタイルの命令テンプレートを採用し、テキスト生成タスクに適しています。
大規模言語モデル 英語
R
TheBloke
612
27
Opus V0 7B GGUF
Opus V0 7BはDreamGenによって開発されたMistralアーキテクチャに基づく7Bパラメータの言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル 英語
O
TheBloke
2,467
13
Tinyllama 1.1B Alpaca Chat V1.5 GGUF
Apache-2.0
TinyLlama-1.1Bをファインチューニングした軽量対話モデルで、Alpacaデータセットを使用して訓練され、英文テキスト生成タスクに適しています
大規模言語モデル 英語
T
afrideva
44
2
Yarn Mistral 7B 128k AWQ
Apache-2.0
Yarn Mistral 7B 128Kは、長文コンテキストに最適化された先進的な言語モデルで、YaRN拡張手法を用いて長文コンテキストデータで追加事前学習を行い、128kトークンのコンテキストウィンドウをサポートします。
大規模言語モデル
Transformers 英語

Y
TheBloke
483
72
Tinystories Gpt2 3M
これはTinyStories V2データセットで事前学習された小型GPT-2モデルで、300万のトレーニング可能なパラメータを持ち、優れたテキスト生成の一貫性を示します。
大規模言語モデル
Transformers 英語

T
calum
637
7
Phi Hermes 1.3B
その他
HermesデータセットでファインチューニングされたPhi-1.5モデル、主にテキスト生成タスクに使用
大規模言語モデル
Transformers 英語

P
teknium
45
44
Mythalion 13B GGUF
Mythalion 13BはPygmalionAIが開発した13Bパラメータ規模の大規模言語モデルで、Llamaアーキテクチャを基盤としており、テキスト生成と命令追従タスクに特化しています。
大規模言語モデル 英語
M
TheBloke
2,609
67
Qcammel 70 X GGUF
その他
qCammel 70はLlama 2アーキテクチャに基づく大規模言語モデルで、augtomaによって開発され、TheBlokeによって量子化処理されました。このモデルはテキスト生成タスクに特化しており、さまざまなハードウェア要件に対応するために複数の量子化バージョンを提供しています。
大規模言語モデル 英語
Q
TheBloke
1,264
4
Flan T5 Base Samsum
Apache-2.0
Googleのflan-t5-baseモデルをsamsum対話要約データセットでファインチューニングしたテキスト生成モデルで、対話要約タスクに優れています
大規模言語モデル
Transformers 英語

F
achimoraites
15
3
Gpt Neo 125m
MIT
GPT-Neo 125Mは、GPT - 3アーキテクチャに基づくTransformerモデルで、EleutherAIによって開発され、パラメータ数は1億2500万で、主に英語のテキスト生成タスクに使用されます。
大規模言語モデル 英語
G
EleutherAI
150.96k
204
Gpt Neo 1.3B
MIT
GPT - Neo 1.3BはEleutherAIによって開発された13億パラメータの自己回帰型言語モデルで、GPT - 3アーキテクチャに基づいて設計され、テキスト生成タスクに長けています。
大規模言語モデル 英語
G
EleutherAI
208.93k
298
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98