ICONNAI ICONN 1 GGUF
その他
ICONN-1の量化バージョンで、さまざまな性能と品質の要件に対応するための複数の量化オプションを提供します。
大規模言語モデル
I
bartowski
609
6
Gemma 3 27b It Quantized.w4a16
これはgoogle/gemma-3-27b-itの量子化バージョンで、ビジュアル - テキスト入力とテキスト出力をサポートし、重み量子化と活性化量子化による最適化を行い、vLLMを使用して高効率推論が可能です。
画像生成テキスト
Transformers

G
RedHatAI
302
1
Thedrummer Valkyrie 49B V1 GGUF
Valkyrie-49B-v1はllama.cppベースの49Bパラメータ大規模言語モデルで、様々な量子化バージョンを提供し、異なるハードウェア構成に対応します。
大規模言語モデル
T
bartowski
64.03k
9
24b Ms Dans Personality Engine V1.3.0 TestArticle 1
Apache-2.0
Mistral-Small-3.1-24B-Base-2503-hf-DanChatをファインチューニングした大規模言語モデルで、パーソナライズドテキスト生成に特化
大規模言語モデル
Transformers

2
Dans-DiscountModels
907
2
Cogvideox 5b
その他
CogVideoXは清影に由来する動画生成モデルのオープンソース版で、5Bバージョンはより大規模なモデルサイズを有し、より高品質な動画コンテンツを生成可能です。
テキスト生成ビデオ 英語
C
vdo
13
0
Meta Llama 3.1 405B Instruct FP8 Dynamic
Meta-Llama-3.1-405B-InstructのFP8量子化バージョンで、多言語の商業および研究用途に適しており、特にアシスタントロボットシナリオ向けに最適化されています。
大規模言語モデル
Transformers 複数言語対応

M
RedHatAI
97
15
Faster Whisper Large V3 Russian
Apache-2.0
これはantony66/whisper-large-v3-russianモデルのctranslate2変換バージョンで、ロシア語音声認識タスク向けに最適化されています。
音声認識
Transformers その他

F
bzikst
155
3
Llm4decompile 1.3b V1.5
MIT
LLM4Decompileはx86アセンブリ命令をCコードに逆コンパイルするためのモデルです。最新リリースのV1.5シリーズはより大規模なデータセット(1500億トークン)と4096の最大トークン長でトレーニングされ、前世代モデルと比べて性能が大幅に向上しています(最大100%)。
大規模言語モデル
Transformers

L
LLM4Binary
198
4
Deberta Xxlarge Fixed
MIT
これはdeberta-v2-xxlargeの更新バージョンで、AutoModelForCausalLMクラスを実装し、テキスト生成が可能になりました。元の実装にあった3つの問題、すなわち出力埋め込み重み名、強化マスクデコーダの実装、位置埋め込みの切り捨て処理を修正しました。
大規模言語モデル
Transformers 英語

D
ltg
203
13
Starcoder2 3b Instruct
Openrail
starcoder2-3bモデルを微調整した大規模言語モデルで、コード生成タスクに特化しており、HumanEval-Pythonテストで65.9 pass@1の成績を達成
大規模言語モデル
Transformers その他

S
TechxGenus
44
4
Starcoderplus
StarCoderPlusは、BigCodeプロジェクトで開発された強力なコード生成モデルで、複数のプログラミング言語と自然言語処理タスクをサポートしています。
大規模言語モデル
Transformers その他

S
bigcode
52
219
Flan T5 11b Summarizer Filtered
Bsd-3-clause
これはgoogle/flan-t5-xxlモデルを複数の要約データセットでファインチューニングしたバージョンで、学術と汎用シナリオに適した多機能要約ジェネレーターを目指しています。
テキスト生成
Transformers 英語

F
jordiclive
492
16
Whisper Large V2 Pl V2
Whisper Large v2をポーランド語データセットでファインチューニングした自動音声認識モデルで、ポーランド語音声からテキストへの変換タスクをサポートします。
音声認識
Transformers その他

W
bardsai
217
6
Long T5 Tglobal Xl 16384 Book Summary
Bsd-3-clause
BookSumデータセットでファインチューニングされたLongT5-XLモデルで、長文要約に特化しており、SparkNotesのような要約を生成できます。
テキスト生成
Transformers

L
pszemraj
58
19
Wav2vec2 Large Xlsr Es Col Test
Apache-2.0
これはjonatasgrosman/wav2vec2-large-xlsr-53-spanishモデルを特定のデータセットでファインチューニングしたスペイン語音声認識モデルです。
音声認識
Transformers

W
Santiagot1105
30
1
Wav2vec2 Lar Xlsr Es Col
Apache-2.0
このモデルは、jonatasgrosman/wav2vec2-large-xlsr-53-spanishをベースに微調整されたバージョンで、スペイン語の音声認識タスクに使用されます。
音声認識
Transformers

W
Santiagot1105
26
0
Wav2vec2 Large Voxrex Npsc Bokmaal
Apache-2.0
これはwav2vec2アーキテクチャに基づく大規模な自動音声認識(ASR)モデルで、ノルウェー書面語(ブークモール)に特化して訓練されています。
音声認識
Transformers

W
NbAiLab
35
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98