Contentv 8B
Apache-2.0
ContentVは高効率なビデオ生成モデルフレームワークで、極簡アーキテクチャ、多段階トレーニング戦略、経済的で効率的な強化学習フレームワークを通じて、限られた計算リソースで高品質なビデオ生成を実現します。
動画処理
C
ByteDance
417
25
Nanovlm 222M
Apache-2.0
nanoVLMは、効率的なトレーニングと実験のために設計された極めて軽量な視覚言語モデル(VLM)です。
画像生成テキスト
N
lusxvr
2,441
73
Flan T5 Base Peft Dialogue Summary Before
Apache-2.0
google/flan-t5-baseモデルを基に、対話要約タスク向けにPEFT手法でパラメータ効率的にファインチューニングしたバージョン
テキスト生成
TensorBoard 英語

F
agoor97
20
0
Speecht5 Elise
MIT
microsoft/speecht5_ttsを微調整した音声合成モデルで、テキストから音声への変換タスクをサポート
音声合成
Transformers

S
suayptalha
60
2
Demo Text To Speech
MIT
microsoft/speecht5_ttsをファインチューニングしたテキスト音声変換モデル
音声合成
Transformers

D
benjaminogbonna
79
2
Orpheus Bangla Tts Gguf
Apache-2.0
Orpheus 3B TTSモデルのベンガル語向けファインチューニング版。955の音声サンプルでトレーニングされており、実験的なベンガル語音声合成に適しています
音声合成 その他
O
asif00
55
0
Bert Practice Classifier
Apache-2.0
distilbert-base-uncasedをファインチューニングしたテキスト分類モデルで、特定タスク向けにトレーニングされています。
テキスト分類
Transformers

B
RayenLLM
181
1
MMS TTS THAI FEMALEV2
VITSアーキテクチャに基づくタイ語女性音声のテキスト・トゥ・スピーチ(TTS)モデルで、高品質なタイ語音声合成をサポートします。
音声合成 その他
M
VIZINTZOR
47
0
Multilingual ModernBert Base Preview
MIT
Algomaticチームによって開発された多言語BERTモデルで、マスキングタスクをサポートし、8192のコンテキスト長と151,680の語彙サイズを備えています。
大規模言語モデル
M
makiart
60
4
Auroracap 7B VID Xtuner
Apache-2.0
AuroraCapは画像と動画の字幕生成に特化したマルチモーダル大規模言語モデルで、効率的で詳細な動画字幕生成に焦点を当てています。
ビデオ生成テキスト
A
wchai
31
5
Shuka 1
Shuka v1は、インド言語の音声理解をネイティブサポートする言語モデルで、独自開発の音声エンコーダーとLlama3-8B-Instructデコーダーを組み合わせ、多言語ゼロショットQAタスクをサポートします。
音声生成テキスト
Transformers 複数言語対応

S
sarvamai
729
54
Biggie SmoLlm 0.15B Base
MIT
SmolLM-135Mをベースにしたミニチュア言語モデルのアップグレード版で、パラメータ規模は0.18B、トレーニングシナリオに適しており、優れた推論速度と一貫性を発揮します
大規模言語モデル
Transformers

B
nisten
944
235
Musicgen Melody Lora Punk Colab
これはfacebook/musicgen-melodyモデルをミクロパンクデータセットでファインチューニングしたテキストからオーディオへのモデルです
音声生成
TensorBoard

M
ylacombe
15
1
Musicgen Melody Punk Lora
facebook/musicgen-melodyをベースにLoRAモデルでファインチューニングされ、パンクスタイルの音楽生成に特化
音声生成
M
ylacombe
20
0
Bitnet B1 58 Xl
MIT
BitNet b1.58 3Bは1ビット量子化された大規模言語モデルで、RedPajamaデータセットを使用して1000億トークン訓練され、性能を維持しながら計算リソース要件を大幅に削減しました。
大規模言語モデル
Transformers

B
1bitLLM
10.64k
34
Pegasus Samsum
このモデルはsamsumデータセットでgoogle/pegasus-cnn_dailymailをファインチューニングしたバージョンで、主にテキスト要約タスクに使用されます。
テキスト生成
Transformers

P
Feluda
98
3
Gugugo Koen 7B V1.1
Apache-2.0
Gugugo-koen-7B-V1.1 は Llama-2-ko-7b をベースにした韓英翻訳モデルで、韓国語と英語間の高品質な翻訳タスクに特化しています。
機械翻訳
Transformers 複数言語対応

G
squarelike
94
17
Tinystories Gpt2 3M
これはTinyStories V2データセットで事前学習された小型GPT-2モデルで、300万のトレーニング可能なパラメータを持ち、優れたテキスト生成の一貫性を示します。
大規模言語モデル
Transformers 英語

T
calum
637
7
Wav2musicgenre
Apache-2.0
facebook/wav2vec2-baseをファインチューニングしたオーディオ分類モデルで、音楽ジャンルを識別するために使用されます
音声分類
Transformers

W
ramonpzg
20
0
Gender Classification
テキストまたは画像データに基づく性別分類モデルで、具体的なトレーニングデータは指定されていません。
テキスト分類
Transformers

G
hts98
19
0
Tinystories 33M
TinyStoriesデータセットでトレーニングされた33Mパラメータの小型言語モデル、児童向けストーリー生成専用
大規模言語モデル
Transformers

T
roneneldan
25.99k
97
Wav2vec2 Large Xlsr 53 Gender Recognition Librispeech
Apache-2.0
Librispeech-clean-100データセットで微調整された性別認識モデルで、テストセットでF1スコア0.9993を達成
音声分類
Transformers

W
alefiury
182.33k
42
Audio Class Finetuned
Apache-2.0
このモデルはfacebook/wav2vec2-baseをsuperbデータセットでファインチューニングしたオーディオ分類モデルで、評価セットで0.6578の精度を達成しました。
音声分類
Transformers

A
Chemsseddine
20
0
Resnet 18 1
Tiny ImageNetは、コンピュータビジョンタスクのベンチマークテストとモデルトレーニング用の小規模な画像分類データセットです。
画像分類
Transformers

R
jsli96
35
1
Firefly Bloom 1b4
オープンソースの中国語対話型大規模言語モデルで、命令ファインチューニング技術で最適化され、中華文化関連タスクに特化、パラメータ数1.4B/2.6B
大規模言語モデル
Transformers

F
YeungNLP
55
23
Whisper Large V2 Japanese 5k Steps
Apache-2.0
OpenAIのwhisper-large-v2モデルを日本語CommonVoiceデータセットでファインチューニングした音声認識モデル、5000ステップ訓練、単語誤り率0.7449
音声認識
Transformers 日本語

W
clu-ling
144
20
Mt5 Small Finetuned 28jan 2
Apache-2.0
google/mt5-smallを微調整したテキスト要約生成モデルで、多言語テキスト要約タスクをサポートします。
テキスト生成
Transformers

M
mqy
14
0
Gpt2 Finetuned Cnn Summarization V2
MIT
GPT-2をファインチューニングしたテキスト要約生成モデル
テキスト生成
Transformers

G
gavin124
266
7
Sd Onepiece Diffusers4
Apache-2.0
Diffusersライブラリでトレーニングされた安定拡散モデル、ワンピースアニメ関連データセットを使用
画像生成
TensorBoard 英語

S
YaYaB
18
11
Bart Base Few Shot K 256 Finetuned Squad Seed 0
Apache-2.0
このモデルはfacebook/bart-baseをSQuADデータセットでファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム
Transformers

B
anas-awadalla
13
0
Wav2vec Test
これはwav2vecアーキテクチャに基づく音声処理テストモデルで、具体的な用途とトレーニングデータは明記されていません。
音声認識
Transformers

W
eugenetanjc
73
0
Albert Sentiment
ALBERT事前学習モデルをファインチューニングした繁体中国語感情分類モデルで、ネガティブ(0)とポジティブ(1)の2種類の感情分類をサポートします。
テキスト分類
Transformers その他

A
clhuang
217
4
Wav2vec2 Base Timit Demo Colab53
Apache-2.0
facebook/wav2vec2-baseモデルをファインチューニングした音声認識モデルで、TIMITデータセットに適しています
音声認識
Transformers

W
Mudassar
22
0
T5 Small 6 3 Hi En To En
これはT5-smallアーキテクチャに基づくシーケンス・ツー・シーケンスモデルで、ヒンディー語と英語の混合テキスト(hi_en)を標準英語(en)に翻訳するために特別に設計されています。
機械翻訳
Transformers

T
sayanmandal
38
2
Wav2vec2 Base Librispeech Demo Colab
Apache-2.0
このモデルはfacebook/wav2vec2-baseをLibriSpeechデータセットで微調整した音声認識モデルで、英語音声からテキストへの変換タスクに適しています。
音声認識
Transformers

W
khanhnguyen
24
0
Test
Apache-2.0
このモデルはfacebook/deit-tiny-patch16-224を画像フォルダデータセットで微調整した画像分類モデルです
画像分類
Transformers

T
flyswot
19
0
Part1
Apache-2.0
このモデルはfacebook/wav2vec2-baseを微調整した音声処理モデルで、具体的な用途は明記されていません
音声認識
Transformers

P
zasheza
28
0
Wav2vec Speech Project
wav2vecアーキテクチャに基づく音声処理モデル、具体的な用途とトレーニングデータは明記されていません
音声認識
Transformers

W
maryam359
16
0
Distilroberta Base Finetuned Wikitext2
Apache-2.0
このモデルは、wikitext2データセットでdistilroberta-baseを微調整したバージョンで、主にテキスト生成タスクに使用されます。
大規模言語モデル
Transformers

D
lamyae
79
0
Wav2vec2 Base Toy Train Data Masked Audio
Apache-2.0
facebook/wav2vec2-baseをファインチューニングした音声認識モデルで、おもちゃデータセットでトレーニングされ、オーディオマスキングタスクをサポート
音声認識
Transformers

W
scasutt
22
0
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98