# 低リソーストレーニング

Contentv 8B
Apache-2.0
ContentVは高効率なビデオ生成モデルフレームワークで、極簡アーキテクチャ、多段階トレーニング戦略、経済的で効率的な強化学習フレームワークを通じて、限られた計算リソースで高品質なビデオ生成を実現します。
動画処理
C
ByteDance
417
25
Nanovlm 222M
Apache-2.0
nanoVLMは、効率的なトレーニングと実験のために設計された極めて軽量な視覚言語モデル(VLM)です。
画像生成テキスト
N
lusxvr
2,441
73
Flan T5 Base Peft Dialogue Summary Before
Apache-2.0
google/flan-t5-baseモデルを基に、対話要約タスク向けにPEFT手法でパラメータ効率的にファインチューニングしたバージョン
テキスト生成 TensorBoard 英語
F
agoor97
20
0
Speecht5 Elise
MIT
microsoft/speecht5_ttsを微調整した音声合成モデルで、テキストから音声への変換タスクをサポート
音声合成 Transformers
S
suayptalha
60
2
Demo Text To Speech
MIT
microsoft/speecht5_ttsをファインチューニングしたテキスト音声変換モデル
音声合成 Transformers
D
benjaminogbonna
79
2
Orpheus Bangla Tts Gguf
Apache-2.0
Orpheus 3B TTSモデルのベンガル語向けファインチューニング版。955の音声サンプルでトレーニングされており、実験的なベンガル語音声合成に適しています
音声合成 その他
O
asif00
55
0
Bert Practice Classifier
Apache-2.0
distilbert-base-uncasedをファインチューニングしたテキスト分類モデルで、特定タスク向けにトレーニングされています。
テキスト分類 Transformers
B
RayenLLM
181
1
MMS TTS THAI FEMALEV2
VITSアーキテクチャに基づくタイ語女性音声のテキスト・トゥ・スピーチ(TTS)モデルで、高品質なタイ語音声合成をサポートします。
音声合成 その他
M
VIZINTZOR
47
0
Multilingual ModernBert Base Preview
MIT
Algomaticチームによって開発された多言語BERTモデルで、マスキングタスクをサポートし、8192のコンテキスト長と151,680の語彙サイズを備えています。
大規模言語モデル
M
makiart
60
4
Auroracap 7B VID Xtuner
Apache-2.0
AuroraCapは画像と動画の字幕生成に特化したマルチモーダル大規模言語モデルで、効率的で詳細な動画字幕生成に焦点を当てています。
ビデオ生成テキスト
A
wchai
31
5
Shuka 1
Shuka v1は、インド言語の音声理解をネイティブサポートする言語モデルで、独自開発の音声エンコーダーとLlama3-8B-Instructデコーダーを組み合わせ、多言語ゼロショットQAタスクをサポートします。
音声生成テキスト Transformers 複数言語対応
S
sarvamai
729
54
Biggie SmoLlm 0.15B Base
MIT
SmolLM-135Mをベースにしたミニチュア言語モデルのアップグレード版で、パラメータ規模は0.18B、トレーニングシナリオに適しており、優れた推論速度と一貫性を発揮します
大規模言語モデル Transformers
B
nisten
944
235
Musicgen Melody Lora Punk Colab
これはfacebook/musicgen-melodyモデルをミクロパンクデータセットでファインチューニングしたテキストからオーディオへのモデルです
音声生成 TensorBoard
M
ylacombe
15
1
Musicgen Melody Punk Lora
facebook/musicgen-melodyをベースにLoRAモデルでファインチューニングされ、パンクスタイルの音楽生成に特化
音声生成
M
ylacombe
20
0
Bitnet B1 58 Xl
MIT
BitNet b1.58 3Bは1ビット量子化された大規模言語モデルで、RedPajamaデータセットを使用して1000億トークン訓練され、性能を維持しながら計算リソース要件を大幅に削減しました。
大規模言語モデル Transformers
B
1bitLLM
10.64k
34
Pegasus Samsum
このモデルはsamsumデータセットでgoogle/pegasus-cnn_dailymailをファインチューニングしたバージョンで、主にテキスト要約タスクに使用されます。
テキスト生成 Transformers
P
Feluda
98
3
Gugugo Koen 7B V1.1
Apache-2.0
Gugugo-koen-7B-V1.1 は Llama-2-ko-7b をベースにした韓英翻訳モデルで、韓国語と英語間の高品質な翻訳タスクに特化しています。
機械翻訳 Transformers 複数言語対応
G
squarelike
94
17
Tinystories Gpt2 3M
これはTinyStories V2データセットで事前学習された小型GPT-2モデルで、300万のトレーニング可能なパラメータを持ち、優れたテキスト生成の一貫性を示します。
大規模言語モデル Transformers 英語
T
calum
637
7
Wav2musicgenre
Apache-2.0
facebook/wav2vec2-baseをファインチューニングしたオーディオ分類モデルで、音楽ジャンルを識別するために使用されます
音声分類 Transformers
W
ramonpzg
20
0
Gender Classification
テキストまたは画像データに基づく性別分類モデルで、具体的なトレーニングデータは指定されていません。
テキスト分類 Transformers
G
hts98
19
0
Tinystories 33M
TinyStoriesデータセットでトレーニングされた33Mパラメータの小型言語モデル、児童向けストーリー生成専用
大規模言語モデル Transformers
T
roneneldan
25.99k
97
Wav2vec2 Large Xlsr 53 Gender Recognition Librispeech
Apache-2.0
Librispeech-clean-100データセットで微調整された性別認識モデルで、テストセットでF1スコア0.9993を達成
音声分類 Transformers
W
alefiury
182.33k
42
Audio Class Finetuned
Apache-2.0
このモデルはfacebook/wav2vec2-baseをsuperbデータセットでファインチューニングしたオーディオ分類モデルで、評価セットで0.6578の精度を達成しました。
音声分類 Transformers
A
Chemsseddine
20
0
Resnet 18 1
Tiny ImageNetは、コンピュータビジョンタスクのベンチマークテストとモデルトレーニング用の小規模な画像分類データセットです。
画像分類 Transformers
R
jsli96
35
1
Firefly Bloom 1b4
オープンソースの中国語対話型大規模言語モデルで、命令ファインチューニング技術で最適化され、中華文化関連タスクに特化、パラメータ数1.4B/2.6B
大規模言語モデル Transformers
F
YeungNLP
55
23
Whisper Large V2 Japanese 5k Steps
Apache-2.0
OpenAIのwhisper-large-v2モデルを日本語CommonVoiceデータセットでファインチューニングした音声認識モデル、5000ステップ訓練、単語誤り率0.7449
音声認識 Transformers 日本語
W
clu-ling
144
20
Mt5 Small Finetuned 28jan 2
Apache-2.0
google/mt5-smallを微調整したテキスト要約生成モデルで、多言語テキスト要約タスクをサポートします。
テキスト生成 Transformers
M
mqy
14
0
Gpt2 Finetuned Cnn Summarization V2
MIT
GPT-2をファインチューニングしたテキスト要約生成モデル
テキスト生成 Transformers
G
gavin124
266
7
Sd Onepiece Diffusers4
Apache-2.0
Diffusersライブラリでトレーニングされた安定拡散モデル、ワンピースアニメ関連データセットを使用
画像生成 TensorBoard 英語
S
YaYaB
18
11
Bart Base Few Shot K 256 Finetuned Squad Seed 0
Apache-2.0
このモデルはfacebook/bart-baseをSQuADデータセットでファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム Transformers
B
anas-awadalla
13
0
Wav2vec Test
これはwav2vecアーキテクチャに基づく音声処理テストモデルで、具体的な用途とトレーニングデータは明記されていません。
音声認識 Transformers
W
eugenetanjc
73
0
Albert Sentiment
ALBERT事前学習モデルをファインチューニングした繁体中国語感情分類モデルで、ネガティブ(0)とポジティブ(1)の2種類の感情分類をサポートします。
テキスト分類 Transformers その他
A
clhuang
217
4
Wav2vec2 Base Timit Demo Colab53
Apache-2.0
facebook/wav2vec2-baseモデルをファインチューニングした音声認識モデルで、TIMITデータセットに適しています
音声認識 Transformers
W
Mudassar
22
0
T5 Small 6 3 Hi En To En
これはT5-smallアーキテクチャに基づくシーケンス・ツー・シーケンスモデルで、ヒンディー語と英語の混合テキスト(hi_en)を標準英語(en)に翻訳するために特別に設計されています。
機械翻訳 Transformers
T
sayanmandal
38
2
Wav2vec2 Base Librispeech Demo Colab
Apache-2.0
このモデルはfacebook/wav2vec2-baseをLibriSpeechデータセットで微調整した音声認識モデルで、英語音声からテキストへの変換タスクに適しています。
音声認識 Transformers
W
khanhnguyen
24
0
Test
Apache-2.0
このモデルはfacebook/deit-tiny-patch16-224を画像フォルダデータセットで微調整した画像分類モデルです
画像分類 Transformers
T
flyswot
19
0
Part1
Apache-2.0
このモデルはfacebook/wav2vec2-baseを微調整した音声処理モデルで、具体的な用途は明記されていません
音声認識 Transformers
P
zasheza
28
0
Wav2vec Speech Project
wav2vecアーキテクチャに基づく音声処理モデル、具体的な用途とトレーニングデータは明記されていません
音声認識 Transformers
W
maryam359
16
0
Distilroberta Base Finetuned Wikitext2
Apache-2.0
このモデルは、wikitext2データセットでdistilroberta-baseを微調整したバージョンで、主にテキスト生成タスクに使用されます。
大規模言語モデル Transformers
D
lamyae
79
0
Wav2vec2 Base Toy Train Data Masked Audio
Apache-2.0
facebook/wav2vec2-baseをファインチューニングした音声認識モデルで、おもちゃデータセットでトレーニングされ、オーディオマスキングタスクをサポート
音声認識 Transformers
W
scasutt
22
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase