Allura Org Q3 30b A3b Pentiment GGUF
Q3-30b-A3b-Pentiment はLLaMAアーキテクチャに基づく大規模言語モデルで、量子化処理されており、様々なテキスト生成タスクに適しています。
大規模言語モデル
A
bartowski
1,220
2
Thedrummer Valkyrie 49B V1 GGUF
Valkyrie-49B-v1はllama.cppベースの49Bパラメータ大規模言語モデルで、様々な量子化バージョンを提供し、異なるハードウェア構成に対応します。
大規模言語モデル
T
bartowski
64.03k
9
Website Mistral7b Best Vllm
これはHugging Face Transformersライブラリをベースにしたモデルで、Unslothを使用して最適化されています。具体的な機能や用途については、さらに情報を追加する必要があります。
大規模言語モデル
Transformers

W
limitedonly41
30
1
MMS TTS THAI MALE NARRATOR
これはVITSアーキテクチャに基づくタイ語テキスト音声変換モデルで、男性ナレーションスタイルに特化して微調整されています。
音声合成
Safetensors その他
M
VIZINTZOR
205
3
Bart Large Empathetic Dialogues
このモデルはtransformersライブラリに基づくモデルで、具体的な用途と機能はさらなる情報が必要です。
大規模言語モデル
Transformers

B
sourname
199
1
Mt5 Base Cnn Then Norsumm
mt5-baseアーキテクチャに基づいてトレーニングされたテキスト要約モデルで、テキストからキー情報を抽出して要約を生成することをサポートします。
テキスト生成
Transformers

M
GloriaABK1
105
0
Llama 3.2 1B Instruct FitnessAssistant
このモデルはLoRA(低ランク適応)重みを使用してLlama-3.2-1B-Instructをファインチューニングしたバージョンで、様々なトピックに関する質問への回答支援や情報提供を主な目的としています。
大規模言語モデル
Transformers

L
Soorya03
72
2
Pocketdoc Dans SakuraKaze V1.0.0 12b GGUF
Apache-2.0
PocketDoc/Dans-SakuraKaze-V1.0.0-12bを基にしたLlamacpp imatrix量子化バージョンで、複数の量子化タイプをサポートし、テキスト生成タスクに適しています。
大規模言語モデル 英語
P
bartowski
788
3
Test With Sdfvd
MCG-NJU/videomae-baseをファインチューニングした動画理解モデルで、評価セットでのパフォーマンスは平均的(精度50%)
動画処理
Transformers

T
cocovani
16
0
Illustrious XL V2.0 GGUF
Illustrious-XL-v2.0 はテキストから画像を生成する基礎モデルで、様々な画像生成タスクに適しています。
画像生成
I
btaskel
365
3
Llama 3.2 11B Vision Radiology Mini
これはLlamaアーキテクチャに基づくマルチモーダルモデルで、視覚とテキストの命令をサポートし、4ビット量子化で最適化されています。
画像生成テキスト
L
p4rzvl
69
0
Bert Base Uncased Finetuned Rte Run Trial3
Apache-2.0
bert-base-uncasedをファインチューニングしたモデルで、テキスト含意認識タスクに使用され、精度は66.43%
テキスト分類
Transformers

B
BoranIsmet
59
1
Kok Basev2
Apache-2.0
Kok-Baseは多言語モデルで、英語、アラビア語、チェコ語をサポートし、さまざまな自然言語処理タスクに適しています。
大規模言語モデル
Transformers 複数言語対応

K
moelanoby
195
1
Gryphe Pantheon RP 1.8 24b Small 3.1 GGUF
Apache-2.0
これはGryphe/Pantheon-RP-1.8-24b-Small-3.1モデルを基にした量子化バージョンで、llama.cppを使用して量子化されており、ロールプレイやテキスト生成タスクに適しています。
大規模言語モデル 英語
G
bartowski
6,477
14
Songgen Mixed Pro
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途はまだ明確に説明されていません。
大規模言語モデル
Transformers

S
LiuZH-19
1,006
2
Whisper Large V3 Russian Ties Podlodka V1.0
TIES融合手法を用いて統合されたロシア語音声認識モデル、電話音声認識効果を最適化
音声認識
Transformers その他

W
Apel-sin
96
1
Deepseek R1 Medical CoT
MIT
DeepSeek-R1-Distill-Llama-8Bをファインチューニングした医療思考連鎖推論モデルで、QLoRA量子化技術とUnsloth最適化手法により医療推論能力を強化。
大規模言語モデル
D
zijiechen156
49
2
Thedrummer Skyfall 36B V2 GGUF
その他
Skyfall-36B-v2は36Bパラメータの大規模言語モデルで、llama.cppのimatrix量子化処理を経ており、さまざまなハードウェアニーズに対応する複数の量子化バージョンを提供します。
大規模言語モデル
T
bartowski
40.42k
11
Deepseek R1 Distill Qwen 32B Abliterated GGUF
DeepSeek-R1-Distill-Qwen-32B-abliterated は Qwen-32B を基にした蒸留バージョンで、さまざまなハードウェア要件に対応するため複数の量子化オプションを提供します。
大規模言語モデル
D
bartowski
20.10k
103
Modernbert Llm Router
Apache-2.0
google-bert/bert-base-uncasedをファインチューニングしたBERTモデル、具体的な用途は明記されていません
大規模言語モデル
Transformers

M
glunzev
15
1
Ophtimus 8B Base
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途についてはさらに情報を追加する必要があります。
大規模言語モデル
Transformers

O
BaekSeungJu
733
1
Mini Ichigo Llama3.2 3B S Instruct
Apache-2.0
Llama-3アーキテクチャに基づくマルチモーダル言語モデルで、音声とテキスト入力の理解をネイティブにサポートし、大規模言語モデルの音声理解能力向上に焦点を当てています。
テキスト生成オーディオ 英語
M
homebrewltd
14
34
F5 TTS
F5-TTSはストリームマッチングに基づく音声合成モデルで、流暢かつ忠実な音声合成に特化しており、特に童話の朗読などのシナリオに適しています。
音声合成
F
SWivid
851.49k
1,000
David Bowie Flux
MIT
FLUX.1-dev はLoRAファインチューニングに基づくテキスト生成画像拡散モデルで、高品質なアートスタイル画像の生成に特化しています。
画像生成
D
thwri
16
2
Flux 1 Dev LoRA Paper Cutout Style
その他
これはblack-forest-labs/FLUX.1-devでトレーニングされたLoRA重みモデルで、切り紙スタイルの画像生成に特化しています。
画像生成
F
Norod78
555
29
Rollama3 8b Instruct 2024 06 28
RoLlama3はMeta Llama 3を基に構築されたルーマニア語生成テキストモデルシリーズで、これは8Bパラメータの命令微調整バージョンであり、特にルーマニア語タスクに最適化されています。
大規模言語モデル
Transformers その他

R
OpenLLM-Ro
62
9
T5 Small Common Corpus Topic Batch
Apache-2.0
T5-smallアーキテクチャをファインチューニングしたテキスト処理モデルで、特定タスクのテキスト生成と変換に特化
大規模言語モデル
Transformers

T
Pclanglais
21
2
Llama 2 7b Ukrainian
Llama-2-7b-ウクライナ語版はウクライナ語と英語をサポートするバイリンガル事前学習モデルで、Llama-2-7bを基にCulturaXからの50億トークンデータを使用して継続事前学習を行いました。
大規模言語モデル
Transformers 複数言語対応

L
tartuNLP
141
2
Wizardlm 2 7B Abliterated GGUF
Apache-2.0
WizardLM-2-7B-abliteratedのLlamacpp imatrix量子化バージョンで、さまざまな量子化オプションを提供し、異なるハードウェア構成に対応します。
大規模言語モデル
W
bartowski
2,561
13
Llama 3 70B Instruct Abliterated GGUF
Meta LLaMA-3 70Bをベースにした命令微調整モデルで、量子化処理されており、ローカル展開と効率的な推論に適しています。
大規模言語モデル
L
bartowski
686
6
Lm3 8 Bnb 4bit V1.0
Llama 2アーキテクチャに基づく韓国語テキスト生成モデル、韓国語自然言語処理タスクに特化
大規模言語モデル
Transformers 韓国語

L
haes95
18
1
Phi 2 Sft Ultrachat Full
MIT
microsoft/phi-2をultrachat_200kデータセットでファインチューニングした大規模言語モデルで、対話生成タスクに適しています。
大規模言語モデル
Transformers その他

P
lole25
68
2
Mamba 130m Hf
Mambaはtransformersと互換性のあるシーケンスモデリングモデルで、効率的な推論能力を備えています。
大規模言語モデル
Transformers

M
state-spaces
46.83k
56
Mamba 1.4b Hf
Mambaは状態空間モデル(SSM)アーキテクチャに基づく効率的な言語モデルで、1.4Bパラメータ規模を持ち、テキスト生成タスクをサポートします
大規模言語モデル
Transformers

M
state-spaces
5,431
11
Mminilmv2 L6 H384
MIT
Microsoftの多言語MiniLM v2モデルの再アップロード版、HuggingFace transformersライブラリ向けに使用体験を最適化
大規模言語モデル
Transformers

M
hotchpotch
98
1
TC Instruct DPO
Apache-2.0
台風7Bを微調整したタイ語命令最適化モデルで、直接選好最適化(DPO)技術を用いてトレーニング
大規模言語モデル
Transformers 複数言語対応

T
tanamettpk
28
10
Sambalingo Turkish Base
SambaLingo-トルコ語-ベーシック版は、Llama-2-7bをベースに事前学習されたバイリンガル(トルコ語と英語)モデルで、Cultura-Xデータセットのトルコ語部分で420億トークンを訓練し、トルコ語に適応させています。
大規模言語モデル
Transformers 複数言語対応

S
sambanovasystems
29
38
Bangla Llama 13b Base V0.1
LLaMA-2アーキテクチャを最適化した13Bパラメータのベンガル語大規模言語モデルで、ベンガル語と英語の因果言語モデリングをサポート
大規模言語モデル
Transformers 複数言語対応

B
BanglaLLM
63
6
Whisper Small Medical Speech Recognition
Apache-2.0
OpenAI Whisper-smallを医療分野でファインチューニングした音声認識モデルで、医療シーンでの音声からテキストへの変換タスクをサポート
音声認識
Transformers

W
hap20
20
3
Noname Ai V2 2 Light
Apache-2.0
これはApache-2.0ライセンスに基づくオープンソースモデルで、具体的な機能は実際のモデルによって異なります
大規模言語モデル
Transformers

N
huskyhong
15
1
- 1
- 2
- 3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98