Website Mistral7b Best Vllm
これはHugging Face Transformersライブラリをベースにしたモデルで、Unslothを使用して最適化されています。具体的な機能や用途については、さらに情報を追加する必要があります。
大規模言語モデル
Transformers

W
limitedonly41
30
1
Llama3 2 Merged
これは🤗 transformersライブラリを基にしたモデルで、unsloth技術を使用して最適化されています。具体的な機能や用途については、さらに情報を追加する必要があります。
大規模言語モデル
Transformers

L
zehra123
64
1
QWEN 3B INSTRUC Medical COT SFT 2kstep 4kcol
Apache-2.0
Qwen2.5アーキテクチャに基づく3Bパラメータの命令ファインチューニングモデル、UnslothとHuggingface TRLライブラリでトレーニング速度を最適化
大規模言語モデル
Transformers 英語

Q
hailong18102002
30
1
Qwen2.5 7b SFT Three Subtasks 3epoch
これは🤗 transformersライブラリに基づくモデルで、具体的な機能や用途はまだ明確に説明されていません。
大規模言語モデル
Transformers

Q
mjfmark
97
1
Qwen3 14B 128K GGUF
Apache-2.0
Qwen3はQwenシリーズ最新世代の大規模言語モデルで、一連の高密度および混合専門家(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル 英語
Q
unsloth
10.20k
13
Qwen3 4B 128K GGUF
Apache-2.0
Qwen3-4BはQwenシリーズの最新世代の大規模言語モデルで、4Bパラメータ規模を持ち、100以上の言語をサポートし、推論、指示追従、エージェント能力、多言語サポートの面で優れた性能を発揮します。
大規模言語モデル 英語
Q
unsloth
15.41k
17
Qwen3 0.6B GGUF
Apache-2.0
Qwen3-0.6Bはアリババクラウドが開発した0.6Bパラメータ規模の大規模言語モデルで、Qwen3シリーズの最新メンバーです。100以上の言語をサポートし、強力な推論、指示追従、多言語能力を備えています。
大規模言語モデル 英語
Q
unsloth
53.56k
41
Qwen3 14B GGUF
Apache-2.0
Qwen3はアリクラウドが開発した最新の大規模言語モデルで、強力な推論能力、指示追従、多言語サポートを備え、思考モードと非思考モードの切り替えをサポートしています。
大規模言語モデル 英語
Q
unsloth
81.29k
40
Qwen3 4B Unsloth Bnb 4bit
Apache-2.0
Qwen3-4BはQwenシリーズ最新世代の大規模言語モデルで、4Bパラメータ規模を持ち、100以上の言語をサポートし、推論、指示追従、エージェント能力において優れた性能を発揮します。
大規模言語モデル
Transformers 英語

Q
unsloth
72.86k
5
Minicpm S 1B Sft
Apache-2.0
MiniCPM-S-1B-sftは、活性化スパース化技術で最適化された10億パラメータ規模の言語モデルで、ProSparseメソッドにより高スパース推論加速を実現しつつ、元のモデルと同等の性能を維持しています。
大規模言語モデル
Transformers 複数言語対応

M
openbmb
169
10
EZO2.5 Gemma 3 12b It Preview
google/gemma-3-12b-itモデルをベースに、EZOトレーニング手法により日本語性能を向上させたテキスト生成モデル
大規模言語モデル
Transformers 日本語

E
AXCXEPT
39
1
Falcon E 1B Base
その他
Falcon-E-1B-Base はTIIによって開発された効率的な1.58ビット言語モデルで、純粋なTransformerアーキテクチャを採用し、エッジデバイス向けに最適化されています。
大規模言語モデル
Transformers

F
tiiuae
53
4
Orpheus TTS MediaSpeech
これはMediaSpeechデータセットで訓練されたアラビア語モデルです。具体的な用途と機能については、より多くの情報が必要です。
大規模言語モデル
Transformers アラビア語

O
kadirnar
21
2
Orpheus Cml FR
canopylabs/orpheus-3b-0.1-pretrainedを基にファインチューニングしたフランス語テキスト生成モデル
大規模言語モデル
Transformers フランス語

O
kadirnar
24
2
Space Voice Label Detect Beta
Apache-2.0
Qwen2.5-VL-3Bモデルを基にしたファインチューニング版で、UnslothとHuggingface TRLライブラリを使用して訓練され、推論速度が2倍向上
テキスト生成画像
Transformers 英語

S
devJy
38
1
Llama 3.3 70B IT SFT1
Llama FactoryはTransformersライブラリに基づくモデルで、テキスト生成やその他の自然言語処理タスクに使用される可能性があります。
大規模言語モデル
Transformers

L
infrahb
158
1
Turkish Llama 3 8B Function Calling GGUF
Apache-2.0
これはTurkish-Llama-8b-DPO-v0.1モデルをファインチューニングしたトルコ語関数呼び出しモデルで、トルコ語の関数呼び出しタスクを実行するために特別に設計されています。
大規模言語モデル
Transformers 複数言語対応

T
oncu
103
1
Locations Classifier
Apache-2.0
DistilBERTベースの軽量テキスト分類モデル、位置分類タスク用
テキスト分類
Transformers

L
christopherxzyx
28
1
Neo 1 16B
transformersライブラリに基づくモデルで、unslothとtrlを使用して最適化されており、教師ありファインチューニング(SFT)タスクに適しています
大規模言語モデル
Transformers

N
Spestly
16
2
Nova 0.5 E1 7B
このモデルはTRL(Transformer Reinforcement Learning)ライブラリで最適化された効率的なファインチューニングモデルで、Transformerモデルへの強化学習の応用に焦点を当てています。
大規模言語モデル
Transformers

N
oscar128372
46
2
Ro001
Apache-2.0
distilbert-base-uncasedをファインチューニングしたテキスト分類モデル、F1スコアは0.6147
大規模言語モデル
Transformers

R
jiyometrik
23
1
T5 Finetuned Finance
Apache-2.0
T5 SmallはGoogleがリリースしたT5(Text-To-Text Transfer Transformer)シリーズの小型バージョンで、様々なテキスト処理タスクに適しています。
テキスト分類
Transformers 英語

T
AdityaSai1234
21
3
Croguana RC2 Gguf
Mistralアーキテクチャを基にしたクロアチア語テキスト生成モデル、Unslothでトレーニングを加速
大規模言語モデル その他
C
Shome
55
1
Distilbert Base Uncased Finetuned Cola
Apache-2.0
このモデルは、DistilBERT-base-uncasedをCoLA(Corpus of Linguistic Acceptability)データセットでファインチューニングしたバージョンで、文法の受容可能性判断タスクに使用されます。
大規模言語モデル
Transformers

D
shilik
33
1
Reranker Bert Tiny Gooaq Bce Tanh V4
Apache-2.0
これはbert-tinyからファインチューニングされたクロスエンコーダーモデルで、テキストペアの類似度スコアを計算するために使用され、意味的テキスト類似性、意味検索などのタスクに適しています。
テキスト埋め込み 英語
R
cross-encoder-testing
1,971
0
Distilbert Network Intrusion Detection
DistilBERTアーキテクチャを最適化したネットワーク侵入検知モデルで、ネットワークトラフィック内の異常行動を識別・分析する
テキスト分類
Transformers

D
gates04
165
2
My Frugal Audio Model
Apache-2.0
これはfacebook/wav2vec2-baseをファインチューニングした音声処理モデルで、主に音声関連タスクに使用されます
音声分類
Transformers

M
hsalehILB
1
0
Smolturing 8B Instruct
Apache-2.0
SmolLumi-8B-InstructはUnslothとHuggingface TRLライブラリでトレーニングされた8Bパラメータのアルパカモデルで、テキスト生成推論タスクに特化しています。
大規模言語モデル 英語
S
safe049
43
2
Zurich 14B GCv2 50k
Apache-2.0
Qwen 2.5 14B Instructモデルをファインチューニングした大規模言語モデルで、ガンマコーパスv2-50kデータセットで訓練
大規模言語モデル
Transformers 英語

Z
rubenroy
39
3
Llama3 8B 1.58 100B Tokens
BitNet 1.58bアーキテクチャを基にファインチューニングされた大規模言語モデルで、ベースモデルはLlama-3-8B-Instruct、極端な量子化技術を採用
大規模言語モデル
Transformers

L
HF1BitLLM
2,427
181
Sales Conversations Unsloth Llama 3.1 8B Instruct
Apache-2.0
Meta-Llama-3.1-8B-Instructを基にした4ビット量子化バージョンで、UnslothとTRLライブラリを使用して効率的にトレーニングされています
大規模言語モデル
Transformers 英語

S
vakodiya
22
1
Gemma 2 9b It SimPO
MIT
SimPO目標に基づきgemma2-ultrafeedback-armormデータセットでファインチューニングされたGemma 2.9Bモデル、選好最適化タスク用
大規模言語モデル
Transformers

G
princeton-nlp
21.34k
164
Clarityqwen2summarizer
Apache-2.0
Qwen2 1.5bモデルをファインチューニングしたYouTube動画の文字起こし要約生成モデル
テキスト生成 複数言語対応
C
ClarityClips
40
1
Mapo Beta
MaPOは参照サンプル不要で、高効率かつメモリに優しいテキストから画像への拡散モデルアライメント手法です
テキスト生成画像
M
mapo-t2i
30
6
Openvla V01 7b
MIT
OpenVLA v0.1 7Bはオープンソースの視覚-言語-動作モデルで、Open X-Embodimentデータセットでトレーニングされ、さまざまなロボット制御をサポートします。
テキスト生成画像
Transformers 英語

O
openvla
30
10
Mobius
Apache-2.0
メビウスは革新的な拡散モデルで、ドメイン非依存バイアス除去技術によりクロススタイルの高品質画像生成を実現します。
画像生成
M
Corcelio
24.79k
230
Yi 1.5 6B Chat
Apache-2.0
Yi-1.5はYiモデルのアップグレード版で、プログラミング、数学、推論、指示追従能力においてより優れたパフォーマンスを発揮し、卓越した言語理解、常識推論、読解力を維持しています。
大規模言語モデル
Transformers

Y
01-ai
13.32k
42
Llama 3.1 Openhermes Tr
Apache-2.0
unsloth/llama-3-8b-bnb-4bitをファインチューニングしたトルコ語-英語バイリンガルモデル、Unslothでトレーニング速度を最適化
大規模言語モデル
Transformers 複数言語対応

L
umarigan
5,520
3
Phi 3 Mini 4k Instruct Q4
Phi-3 4k Instructは、リソース要件を低減するために4ビット量子化処理された軽量ながら強力な言語モデルです。
大規模言語モデル
Transformers

P
bongodongo
39
1
Dart V2 Vectors
Apache-2.0
これはHugging Face Hubでホストされている🤗 transformersモデルカードです。このカードは自動生成された内容です。
大規模言語モデル
Transformers

D
p1atdev
71
1
- 1
- 2
- 3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98