Bert Practice Classifier
Apache-2.0
distilbert-base-uncasedをファインチューニングしたテキスト分類モデルで、特定タスク向けにトレーニングされています。
テキスト分類
Transformers

B
RayenLLM
181
1
Auramask Ensemble Moon
Gpl-3.0
このモデルは改良版vnetアーキテクチャを使用して2D画像処理を行い、画像間変換タスクに焦点を当てており、敵対的および美的最適化特性を備えています。
画像生成
A
logasja
17
0
Turkish Toxic Language Detection
MIT
このモデルは `dbmdz/bert-base-turkish-cased` をファインチューニングして作成され、トルコ語テキストの二元毒性分類に使用されます。
テキスト分類
Transformers その他

T
fc63
107
1
Giga Embeddings Instruct
MIT
Giga Embeddings Instructは高性能な埋め込みモデルで、テキスト分類と検索タスクに特化し、複数のベンチマークテストで優れた性能を発揮します。
テキスト埋め込み 複数言語対応
G
ai-sage
11.97k
46
Whisper Large V3 Turbo Arabic
Apache-2.0
transformersライブラリに基づき、common_voice_11_0データセットでopenai/whisper-large-v3-turboを微調整したバージョンで、アラビア語音声認識に特化して最適化されています。
音声認識
Transformers

W
mboushaba
1,696
1
Case Analysis InLegalBERT
MIT
InLegalBERTをファインチューニングした法律ケース分析モデルで、法律文書処理タスクに特化
テキスト分類
Transformers

C
cite-text-analysis
18
1
Med T5 Summ Ru
ロシア語生物医学テキストの抽象的な要約生成のためのシーケンス・ツー・シーケンスモデル
テキスト生成
Transformers その他

M
sacreemure
27
0
T5 Small Aslg Pc12
Apache-2.0
このモデルはaslg_pc12データセットでt5-smallをファインチューニングしたバージョンで、主に手話翻訳タスクに使用されます。
機械翻訳
Transformers

T
HamdanXI
22
0
OPT PET Impression
これはBERTベースの医学テキスト要約モデルで、英文テキスト処理をサポートし、医学文献やレポートの自動要約生成に適しています。
テキスト生成
Transformers 英語

O
xtie
15
0
Opus Mt Ko En Korean Parallel Corpora
Apache-2.0
このモデルはHelsinki-NLP/opus-mt-ko-enをベースに微調整された韓英翻訳モデルで、Korean Parallel Corporaデータセットを使用して訓練されています。
機械翻訳
Transformers 複数言語対応

O
DunnBC22
17
4
Wav2vec2 Large Robust Pronounciation Evaluation
Apache-2.0
facebook/wav2vec2-large-robustをファインチューニングした発音評価モデルで、音声品質評価タスクに使用
音声分類
Transformers

W
hafidikhsan
242
5
Codebert Base Malicious URLs
microsoft/codebert-baseをファインチューニングした悪意のあるURL検出モデルで、多クラス分類タスクに使用されます
テキスト分類
Transformers 英語

C
DunnBC22
1,308
9
Wav2vec2 Base Speech Emotion Recognition
Apache-2.0
facebook/wav2vec2-baseをファインチューニングした音声感情認識モデルで、音声サンプル中の話者の感情を予測します。
音声分類
Transformers 英語

W
DunnBC22
128
13
Randeng T5 784M QA Chinese
中国語生成型QAの最初の事前学習済みT5モデル、悟道180Gコーパスで事前学習され、中国語SQuADとCMRC2018データセットでファインチューニング済み
質問応答システム
Transformers 中国語

R
IDEA-CCNL
166
32
Bert Base German Cased Finetuned Subj V3
MIT
bert-base-german-casedを基にファインチューニングしたドイツ語テキスト分類モデル
テキスト分類
Transformers

B
tbosse
15
0
Distilbert Base Uncased Finetuned Combinedmodel1 Ner
Apache-2.0
このモデルはdistilbert-base-uncasedを特定のデータセットでファインチューニングしたバージョンで、主に固有表現認識(NER)タスクに使用されます。
シーケンスラベリング
Transformers

D
akshaychaudhary
15
0
Xls R 1B Te
Apache-2.0
facebook/wav2vec2-xls-r-1bをベースに、OPENSLR_SLR66 - NAデータセットで微調整したテルグ語音声認識モデルで、自動音声認識タスクをサポートします。
音声認識
Transformers その他

X
chmanoj
18
0
Matscibert
MIT
MatSciBERTはBERTアーキテクチャに基づく事前学習済み言語モデルで、材料科学分野のテキストマイニングや情報抽出タスクに最適化されています。
大規模言語モデル
Transformers 英語

M
m3rg-iitd
11.98k
19
T5 Base Squad Qg Ae
T5-baseをベースに微調整された、問題生成と回答抽出を統合したモデルで、英語テキスト処理に対応しています。
質問応答システム
Transformers 英語

T
lmqg
56
0
Indo Roberta Indonli
MIT
Indo-robertaモデルに基づくインドネシア語自然言語推論分類器、IndoNLIデータセットでトレーニング済み
テキスト分類
Transformers その他

I
StevenLimcorn
34
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98