W2V2 BERT Withlm Malayalam
MIT
facebook/w2v-bert-2.0をベースにファインチューニングしたマラヤーラム語自動音声認識モデルで、複数のマラヤーラム語データセットで訓練され、KENLMライブラリで訓練された3-gram言語モデルを使用しています。
音声認識
Transformers その他

W
vrclc
65
3
Xttsv2 Hi Ft
Coqui TTSのフォーク版をファインチューニングしたヒンディー語テキスト読み上げモデルで、ヒンディー語とヒンディー語アクセント付き英語の音声合成をサポート
音声合成
Transformers 複数言語対応

X
AOLCDROM
26
6
Vit Facial Expression Recognition
ViTベースの顔表情認識モデルで、FER2013、MMI、AffectNetデータセットでファインチューニングされ、7つの基本感情を識別可能
人の顔に関係がある
Transformers

V
motheecreator
4,221
13
Matter 0.1 7B Boost GGUF
Apache-2.0
Matter 7BはMistral 7Bをファインチューニングしたモデルで、テキスト生成タスク向けに設計されており、対話型インタラクションと関数呼び出しをサポートします。
大規模言語モデル 英語
M
munish0838
170
1
Matter 0.1 7B GGUF
Apache-2.0
Matter 7BはMistral 7Bをファインチューニングしたモデルで、テキスト生成タスク向けに設計されており、対話型インタラクションと関数呼び出しをサポートします。
大規模言語モデル 英語
M
munish0838
127
1
Bart Finetuned Conversational Summarization
MIT
BARTアーキテクチャを基にファインチューニングされたテキスト要約モデルで、会話やニュース記事の簡潔な要約を生成するために特別に設計されています。
テキスト生成
Transformers 英語

B
Mr-Vicky-01
41
7
Whisper Th Large V3 Combined
Apache-2.0
これはOpenAIのWhisper Large V3モデルをファインチューニングしたタイ語自動音声認識モデルで、Common Voice 13のタイ語テストセットで6.59%の単語誤り率を達成しました。
音声認識
Transformers

W
biodatlab
1,354
9
Deberta V3 Base Prompt Injection
Apache-2.0
DeBERTa-v3をファインチューニングしたプロンプトインジェクション検出モデルで、悪意のあるプロンプト入力を識別します
テキスト分類
Transformers 英語

D
protectai
35.13k
78
Whisper Small Khmer V2
Apache-2.0
OpenAI Whisper-smallモデルをファインチューニングしたクメール語音声認識モデルで、OpenSLR、Google FLEURS、km-speech-corpusデータセットでトレーニング済み
音声認識 その他
W
seanghay
35
3
Qamembert
MIT
QAmembertはCamemBERT基本版を基にフランス語の質問応答タスク向けにファインチューニングされたモデルで、4つのフランス語Q&Aデータセットでトレーニングされ、回答の有無両方に対応しています。
質問応答システム
Transformers フランス語

Q
CATIE-AQ
37
14
Whisper Medium Da
Apache-2.0
OpenAI Whisper Mediumモデルをファインチューニングしたデンマーク語自動音声認識(ASR)モデルで、Common Voice 11とFLEURSデータセットでトレーニング済み
音声認識
Transformers その他

W
jstoone
22
5
Whisper Telugu Medium
Apache-2.0
OpenAI Whisper-mediumをファインチューニングしたテルグ語音声認識モデルで、複数の公開テルグ語ASRデータセットでトレーニング済み
音声認識 その他
W
vasista22
228
2
Whisper Large V2 Mix Jp
Apache-2.0
OpenAI Whisper-large-v2モデルを日本語音声データセットでファインチューニングした自動音声認識(ASR)モデル
音声認識
Transformers

W
vumichien
93
9
Whisper Large V2 Pl V2
Whisper Large v2をポーランド語データセットでファインチューニングした自動音声認識モデルで、ポーランド語音声からテキストへの変換タスクをサポートします。
音声認識
Transformers その他

W
bardsai
217
6
Whisper Medium Ml
Apache-2.0
OpenAI Whisper-mediumをファインチューニングしたマラヤーラム語自動音声認識モデル、Common Voice 11.0などのデータセットでトレーニング
音声認識
Transformers その他

W
thennal
127
6
Deberta Base Combined Squad1 Aqa And Newsqa
MIT
DeBERTa-baseアーキテクチャに基づく質問応答モデルで、SQuAD1、AQA、NewsQAデータセットで共同ファインチューニングされています
質問応答システム
Transformers

D
stevemobs
15
0
Rubert Base Cased Nli Threeway
DeepPavlov/rubert-base-casedをファインチューニングしたロシア語自然言語推論モデルで、2つのテキスト間の論理関係(含意/矛盾/中立)を予測可能
テキスト分類
Transformers その他

R
cointegrated
144.68k
34
Bart Paraphrase
Apache-2.0
3つの書き換えデータセットでファインチューニングされた大型BARTシーケンス・ツー・シーケンス(テキスト生成)モデルで、文の書き換えタスクに使用されます。
テキスト生成
Transformers 英語

B
eugenesiow
2,334
30
Dpr Question Encoder Fr Qa Camembert
CamemBERTベースのフランス語DPRモデルで、フランス語QAタスクに最適化され、PIAF、FQuAD、SQuAD-FRデータセットでファインチューニング済み
質問応答システム
Transformers フランス語

D
AgentPublic
229
8
Wav2vec2 Large Xlsr 53 Finnish
Apache-2.0
facebook/wav2vec2-large-xlsr-53モデルをファインチューニングしたフィンランド語自動音声認識モデルで、16kHzサンプリングレートの音声入力をサポート
音声認識
Transformers その他

W
vasilis
27
0
Wav2vec2 Base Vn 270h
約270時間のベトナム語注釈データでファインチューニングされた音声認識モデルで、ベトナム語の自動音声認識タスクをサポート
音声認識 その他
W
dragonSwing
202
8
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98