# 低リソース微調整

Tarbiyah Ai V1 1
MIT
『コーラン』のアラビア語朗読に対して微調整されたWhisper Smallモデルで、『コーラン』の朗読内容を正確に識別して文字起こしすることができます。
音声認識 Safetensors 複数言語対応
T
Habib-HF
111
1
Qwen3 8B RP V0.1
MIT
Qwen3-8Bをベースにロールプレイシナリオ向けに微調整したモデルで、日本語のロールプレイ対話生成に適しています。
大規模言語モデル Transformers 日本語
Q
Aratako
54
2
Zhtw En
台湾スタイルの繁体字中国語を英語に翻訳するための微調整モデル
機械翻訳 Transformers 複数言語対応
Z
agentlans
23
1
Rigochat 7b V2
その他
RigoChat-7b-v2はQwen-2.5を基にしたスペイン語最適化モデルで、DPO微調整により性能が向上し、スペイン語クエリへの正確な応答に特化しています。
大規模言語モデル Transformers スペイン語
R
IIC
776
19
Masrawy English Arabic Translator
Apache-2.0
Helsinki-NLP/opus-mt-en-arを微調整した英語-アラビア語翻訳モデルで、特にエジプト方言に最適化されています
機械翻訳 TensorBoard 複数言語対応
M
oddadmix
14
2
Titulm Llama 3.2 1b V1.1
Llama 3.2アーキテクチャに基づいて継続的に事前学習されたベンガル語大規模言語モデルで、大量のベンガル語データセットで微調整され、ベンガル語のテキスト生成と理解能力が向上しています。
大規模言語モデル Transformers その他
T
hishab
209
1
Llama 3 8b Telugu Romanized
Apache-2.0
Llama-3 8Bをテルグ語の合成データで微調整し、テルグ語の自然言語処理タスクに使用できます。
大規模言語モデル Transformers その他
L
jayasuryajsk
1,720
9
Minicpm 1B Sft Bf16
MiniCPMは面壁智能と清華大学自然言語処理研究所が共同で開発したエッジサイド大規模言語モデルシリーズで、コアモデルにはわずか12億の非単語埋め込みパラメータしか含まれておらず、複数の評価でより大規模なオープンソースモデルを上回っています。
大規模言語モデル Transformers 複数言語対応
M
openbmb
638
18
Llama 2 7b Hf 4bit 64rank
MIT
LoftQ(LoRA微調整感知量子化)モデルで、量子化されたバックボーンネットワークとLoRAアダプターを提供し、LoRA微調整用に設計され、大規模言語モデルの量子化過程における微調整性能と効率を向上させます。
大規模言語モデル Transformers 英語
L
LoftQ
1,754
2
Merak 7B V2 GGML
MERAK-7B-V2はMeta Llama-2-7B-Chat-HFを微調整したインドネシア語大規模言語モデルで、インドネシア語と英語をサポートしています。
大規模言語モデル Transformers 複数言語対応
M
asyafiqe
46
5
Hh Rlhf Rm Open Llama 3b
LMFlowフレームワークに基づいて訓練された報酬モデルで、HH - RLHFデータセット(有用な部分のみ)を対象とし、open_llama_3bをベースモデルとして訓練され、良好な汎化能力を持っています。
大規模言語モデル Transformers
H
weqweasdas
483
18
Chatgpt Prompt Generator V12
Apache-2.0
BART-largeをベースに微調整されたChatGPTプロンプト生成モデルで、キャラクターの説明に基づいて対応するChatGPTキャラクター設定を生成するために使用されます。
大規模言語モデル Transformers
C
merve
80
72
Sew Tiny 100k
Apache-2.0
SEW-tinyはASAPP Researchによって開発された圧縮高効率型音声事前学習モデルで、16kHzサンプリングの音声オーディオを基に事前学習され、様々な下流音声タスクに適用可能です。
音声認識 Transformers 複数言語対応
S
asapp
1,080
3
Sew Tiny 100k Ft Ls100h
Apache-2.0
SEW(圧縮高効率版Wav2vec)は、ASAPP Researchによって開発された音声認識の事前学習モデルで、性能と効率の面でwav2vec 2.0より優れています。
音声認識 Transformers 複数言語対応
S
asapp
736
1
Encoder Decoder Es
cc_news_es_titlesデータセットを基に微調整された、スペイン語テキスト処理タスク用のエンコーダー - デコーダーモデル
大規模言語モデル Transformers
E
amazon-sagemaker-community
121
0
Mobilebert Uncased Finetuned Squadv2
MobileBERTの軽量アーキテクチャに基づいて微調整された質問応答モデルで、SQuAD v2データセットに特化して最適化されており、回答可能な問題と回答不可能な問題を処理できます。
質問応答システム Transformers 英語
M
mrm8488
68
2
Xlm Roberta Base Finetuned Marc En
MIT
XLM - RoBERTa - baseモデルをamazon_reviews_multiデータセットで微調整した多言語テキスト分類モデル
大規模言語モデル Transformers
X
daveccampbell
29
0
Hubert Xlarge Ls960 Ft
Apache-2.0
Librispeechの960時間の音声データで微調整されたHubert超大型音声認識モデルで、LibriSpeechテストセットでのWERはわずか1.8です。
音声認識 Transformers 英語
H
facebook
8,160
14
Distilbert Token Itr0 0.0001 Editorials 01 03 2022 15 20 12
Apache-2.0
bert-base-uncasedをベースに微調整されたDistilBERTモデルで、主にテキスト分類タスクに使用されます。
大規模言語モデル Transformers
D
ali2066
22
0
Sew D Tiny 100k Ft Ls100h
Apache-2.0
SEW-D-tinyはASAPP Researchによって開発された高効率音声認識事前学習モデルで、性能と効率のバランスに重点を置いています。
音声認識 Transformers 英語
S
asapp
24.55k
2
Distilgpt2 Finetuned
Apache-2.0
distilgpt2を未知のデータセットで微調整した軽量級テキスト生成モデル
大規模言語モデル Transformers
D
begar
15
0
Wav2vec2 Large Lv60h 100h 2nd Try
LibriSpeechデータセットで微調整されたwav2vec2-large-lv60音声認識モデル、英語音声からテキストへの変換タスクをサポート
音声認識 Transformers
W
patrickvonplaten
20
0
Mobilebert Uncased Finetuned Squadv1
MobileBERTに基づく軽量質問応答モデルで、SQuAD v1.1データセットで微調整され、英語の質問応答タスクに適しています。
質問応答システム Transformers 英語
M
mrm8488
27
1
Timit 5percent Supervised
Apache-2.0
facebook/wav2vec2-large-lv60をベースに、TIMITデータセットで微調整した音声認識モデルで、5%のデータを使って教師付き学習を行っています。
音声認識 Transformers
T
Kuray107
31
0
Bert Roberta Summarization Cnn Dailymail
BERTまたはRoBERTaアーキテクチャに基づいて微調整されたテキスト要約モデルで、CNN/DailyMailデータセットで訓練されています。
テキスト生成 Transformers
B
Ayham
57
1
Distilbert Base Chinese Amazon Zh 20000
このモデルはbert-base-chineseを未知のデータセットで微調整したバージョンで、主に中国語テキスト処理タスクに使用されます。
大規模言語モデル Transformers
D
ASCCCCCCCC
14
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase