Rubert Tiny Turbo
MIT
cointegrated/rubert-tiny2をファインチューニングしたロシア語小型文類似度モデルで、特徴抽出や文変換タスクに適しています
テキスト埋め込み
Transformers その他

R
sergeyzh
93.76k
27
Persian Summarizer MT5
MIT
MT5アーキテクチャに基づくペルシア語テキスト要約モデル、TasnimNewsデータセットでファインチューニング
テキスト生成
Transformers その他

P
PardisSzah
17
0
Mt5 Small Finetuned Cnn Dailymail En Nlp Course Chapter7 Section4
Apache-2.0
google/mt5-smallをファインチューニングした要約生成モデルで、CNN/DailyMailデータセットで訓練され、英語テキストの要約タスクに適しています。
テキスト生成
Transformers

M
BanUrsus
68
0
Gpt2 Bangla Summurizer
これはGPT2アーキテクチャに基づくベンガル語テキスト要約生成モデルで、特にニュースコンテンツに最適化されています。
テキスト生成
Transformers その他

G
faridulreza
18
0
Varta T5
Apache-2.0
Varta-T5はVartaデータセットで事前学習された多言語モデルで、14のインド言語と英語をサポートし、主にテキスト生成と分類タスクに使用されます。
大規模言語モデル
Transformers 複数言語対応

V
rahular
751
3
Uztext 568Mb Roberta BPE
UzRoBertaはウズベク語(キリル文字)用の事前学習済みモデルで、マスク言語モデリングと次文予測に使用されます。
大規模言語モデル
Transformers

U
rifkat
24
0
Distilroberta Finetuned Financial News Sentiment Analysis
Apache-2.0
DistilRoBERTaを微調整した金融ニュース感情分析モデルで、正解率は98.23%に達します。
テキスト分類
Transformers

D
mrm8488
310.81k
386
Mt5 Small German Finetune Mlsum
これはmT5-smallアーキテクチャを基に、ドイツ語MLSUMデータセットでファインチューニングされたテキスト要約生成モデルです
テキスト生成
Transformers ドイツ語

M
ml6team
1,040
10
Bert2bert Shared Spanish Finetuned Summarization
これはスペイン語BERTモデル(BETO)をファインチューニングしたテキスト要約モデルで、スペイン語テキストの自動要約生成に特化しています。
テキスト生成
Transformers スペイン語

B
mrm8488
3,185
31
Dbert
BERTアーキテクチャに基づく韓国語事前学習言語モデルで、韓国語テキスト処理タスクに適しています。
大規模言語モデル
Transformers 韓国語

D
baikalai
17
0
Distilbert Punctuator En
DistilBERTを微調整した英文テキストの句読点復元モデルで、句読点のない小文字の英文テキストに句読点を付けるために設計されています。
シーケンスラベリング
Transformers

D
Qishuai
55
7
Pegasusxsum GNAD
PegasusXSUMモデルをドイツ語データセットでファインチューニングした要約生成モデル
テキスト生成
Transformers ドイツ語

P
Einmalumdiewelt
34
1
Distilbert Punctuator Zh
DistilBertForTokenClassificationをベースに微調整した中国語の句読点復元モデルで、句読点のない中国語テキストに句読点を付けるために設計されています。
シーケンスラベリング
Transformers

D
Qishuai
103
4
Bert Base Multilingual Cased Finetuned Amharic
多言語BERTを微調整したアムハラ語モデルで、語彙表を置換して微調整することで得られ、NERタスクではオリジナルの多言語モデルより優れています。
大規模言語モデル
Transformers

B
Davlan
196
2
Rubert Base Cased
RuBERTは、ロシア語のウィキペディアとニュースデータを基に訓練されたロシア語のBERTモデルで、1億8000万のパラメータを持ち、マスク言語モデリングと次文予測タスクをサポートします。
大規模言語モデル その他
R
DeepPavlov
275.78k
106
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98