Lacia Sum Small V1
d0rj/rut5-base-summをファインチューニングしたロシア語自動要約モデルで、ロシア語テキストに最適化され、抽象的要約生成をサポートします。
テキスト生成
Transformers 複数言語対応

L
2KKLabs
136
0
T5 Abstractive
これはインドネシア語テキスト要約タスク向けにファインチューニングされたT5モデルで、Bina Nusantara大学のSumTextチームによって開発されました。
テキスト生成 その他
T
migz117
23
0
Bart Log Summarization
MIT
BART-baseアーキテクチャをファインチューニングしたログ要約生成モデルで、ソフトウェアログの抽象的要約に特化
テキスト生成
Transformers

B
VidhuMathur
660
4
Bart Conversation Summarizer
BARTアーキテクチャに基づく対話要約生成モデルで、SAMSum対話データセットに特化してファインチューニングされています
テキスト生成
Transformers

B
Azma-AI
39
6
Mlong T5 Large Sumstew
Apache-2.0
これは多言語対応で長文(最大16k入力トークン対応)の抽象的要約生成モデルです。sumstewデータセットで訓練されており、与えられた入力文書に対してタイトルと要約を生成できます。
テキスト生成
Transformers 複数言語対応

M
Joemgu
103
9
Arman Longformer 8k
Longformer注意メカニズムを基に改造されたペルシャ語テキスト要約モデルで、8Kトークン長の入力をサポートします。
テキスト生成
Transformers その他

A
zedfum
17
0
Ptt5 Base Summ Temario
MIT
PTT5をファインチューニングしたモデルで、ブラジルポルトガル語テキストの抽象的要約を生成するために使用されます。
テキスト生成
Transformers その他

P
recogna-nlp
159
1
Ptt5 Base Summ Xlsum
MIT
PTT5をファインチューニングしたブラジルポルトガル語テキスト抽象要約生成モデルで、ニュースなど様々なテキストの要約生成をサポートします。
テキスト生成
Transformers その他

P
recogna-nlp
3,754
16
Mbart Finetune En Cnn
MBART-large-50をファインチューニングした英語の抽象的要約モデルで、CNN/DailyMailデータセットで訓練されており、ニュース記事の簡潔な要約生成に優れています。
テキスト生成
Transformers 英語

M
eslamxm
19
0
Mt5 Base Finetuned Fa
Apache-2.0
google/mt5-baseをpn_summaryデータセットでファインチューニングしたペルシャ語要約生成モデル
テキスト生成
Transformers その他

M
ahmeddbahaa
20
1
Arat5 Base Finetune Ar Xlsum
AraT5-baseモデルをアラビア語要約データセットxlsumでファインチューニングした抽象的要約モデル
テキスト生成
Transformers アラビア語

A
ahmeddbahaa
15
0
T5 Arabic Base Finetuned Wikilingua Ar
Apache-2.0
これはT5アーキテクチャに基づくアラビア語要約生成モデルで、wiki_linguaデータセットでファインチューニングされています。
テキスト生成
Transformers アラビア語

T
ahmeddbahaa
16
1
Bart Large Xsum Samsum
Apache-2.0
このモデルはSamsumデータセットでファインチューニングされたBART-large-xsumモデルで、対話要約生成タスク専用です。
テキスト生成
Transformers 英語

B
knkarthick
14
0
Meeting Summary Samsum
Apache-2.0
このモデルはBARTアーキテクチャに基づくseq2seqモデルで、対話要約生成タスクに特化しており、SAMSumデータセットで微調整されたものです。
テキスト生成
Transformers 英語

M
knkarthick
25
9
Rut5 Base Absum
MIT
これはT5アーキテクチャに基づき、複数のデータセットでファインチューニングされたロシア語の抽象的要約生成モデルで、簡潔で正確なテキスト要約を生成できます。
テキスト生成
Transformers その他

R
cointegrated
1,135
27
MEETING SUMMARY BART LARGE XSUM SAMSUM DIALOGSUM AMI
Apache-2.0
BARTアーキテクチャに基づくシーケンス・ツー・シーケンスモデルで、会議や対話の要約タスクに特化してファインチューニングされており、様々な対話データから抽象的な要約を生成できます。
テキスト生成
Transformers 英語

M
knkarthick
119
15
Pegasus Large
PEGASUSはGoogle Researchが開発した、事前学習と間隔文抽出に基づく抽象的要約生成モデルです。
テキスト生成 英語
P
google
43.35k
103
Mbart Summarization Fanpage
mBART-largeをFanpageデータセットでファインチューニングしたイタリア語抽象的要約生成モデル
テキスト生成
Transformers その他

M
ARTeLab
30
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98