Apriel Nemotron 15b Thinker GGUF
MIT
Apriel-Nemotron-15b-Thinkerは強力な推論モデルで、同規模のモデルの中で優れた性能を発揮し、効率的なメモリ使用と優れた推論能力を備え、さまざまな企業や学術シーンに適しています。
大規模言語モデル
Transformers

A
Mungert
1,097
1
FLUX.1 Dev ControlNet Union Pro 2.0 Fp8
その他
これはShakker-Labs/FLUX.1-dev-ControlNet-Union-Pro-2.0モデルのFP8量子化バージョンで、PyTorchネイティブFP8サポートにより元のBFloat16フォーマットから量子化され、推論性能が最適化されています。
画像生成 英語
F
ABDALLALSWAITI
2,023
15
Sonics Spectttra Alpha 120s
MIT
AIによって生成された完全な楽曲(ボーカル、音楽、歌詞、スタイルを含む)を識別できる、エンドツーエンド合成楽曲検出の先進モデル
音声分類
PyTorch 英語
S
awsaf49
1,986
0
Deepseek R1 Distill Qwen 1.5B
MIT
DeepSeek-R1-Distill-Qwen-1.5Bの複数のバリエーションを基に、LiteRTフレームワークとMediaPipe LLM推論APIに適合し、Androidプラットフォームにデプロイ可能です。
大規模言語モデル
D
litert-community
138
4
Llama 3.2 3B Instruct Unsloth Bnb 4bit
Meta Llama 3.2-3B-Instructモデルをベースに、Unslothの動的4ビット量子化技術で最適化された効率的な大規模言語モデル
大規模言語モデル
Transformers 英語

L
unsloth
240.35k
9
Modernbert Large Zeroshot V2.0
Apache-2.0
ModernBERT-largeをファインチューニングしたゼロショット分類器で、効率的で高速かつメモリ使用量が少なく、さまざまなテキスト分類タスクに適しています。
大規模言語モデル
Transformers

M
MoritzLaurer
25.66k
47
Mms 300m 1130 Forced Aligner
Hugging Faceの事前学習モデルを基にしたテキストと音声の強制アライメントツールで、多言語対応かつメモリ効率に優れています
音声認識
Transformers 複数言語対応

M
MahmoudAshraf
2.5M
50
Google Gemma 2b AWQ 4bit Smashed
google/gemma-2bモデルを基に、AWQ技術を用いて圧縮した4ビット量子化バージョンで、推論効率の向上とリソース消費の削減を目的としています。
大規模言語モデル
Transformers

G
PrunaAI
33
1
Universal NER UniNER 7B All Bnb 4bit Smashed
PrunaAIが提供する圧縮版UniNER-7B-allモデル。量子化技術によりメモリ使用量と消費電力を大幅に削減しながら、良好な固有表現抽出能力を維持。
大規模言語モデル
Transformers

U
PrunaAI
22
1
Recurrentgemma 2b It
RecurrentGemmaはGoogleの新しいループアーキテクチャに基づいて構築されたオープンソース言語モデルで、より効率的な長文シーケンス処理能力を提供します
大規模言語モデル
Transformers

R
google
5,418
110
Writer Palmyra Small Bnb 8bit Smashed
PrunaAIが最適化した8ビット量子化版Palmyra小型言語モデル、メモリ使用量とエネルギー消費を大幅に削減
大規模言語モデル
Transformers

W
PrunaAI
31
1
Mosaicml Mpt 7b Storywriter Bnb 4bit Smashed
PrunaAIが圧縮したMPT-7Bストーリーライティングモデル。llm-int8技術により高効率推論を実現
大規模言語モデル
Transformers その他

M
PrunaAI
27
1
Whisper Large V3 French Distil Dec16
MIT
Whisper-Large-V3-フランス語蒸留版は、デコーダ層数を32層から16層に削減し、大規模データセットで蒸留訓練を行ったフランス語音声認識モデルです。このモデルは性能を維持しながら、メモリ消費量と推論時間を大幅に削減しました。
音声認識
Transformers フランス語

W
bofenghuang
2,461
10
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98