# シーケンス・ツー・シーケンス

Khmer Mt5 Summarization
MIT
これはクメール語テキスト要約タスク向けにファインチューニングされたmT5モデルで、GoogleのmT5-smallモデルを基に、クメール語テキストデータセットでファインチューニングされており、簡潔で意味的に豊かなクメール語テキスト要約を生成できます。
テキスト生成 Transformers その他
K
songhieng
58
2
M2m100 1.2B Ctranslate2
MIT
M2M100は100言語間の直接翻訳をサポートする多言語エンコーダー・デコーダーモデルで、パラメータ規模は12億です。
機械翻訳 複数言語対応
M
entai2965
92
3
Mt5 Small Finetuned Gazeta Ru
Apache-2.0
google/mt5-smallをgazetaデータセットでファインチューニングしたロシア語要約生成モデル
テキスト生成 TensorBoard
M
sansmislom
33
0
Sst T5 Base
Apache-2.0
SSTデータセットでT5-baseモデルをファインチューニングしたテキスト生成モデル
大規模言語モデル Transformers
S
kennethge123
17
2
Darija To English
Apache-2.0
Helsinki-NLP/opus-mt-ar-enをファインチューニングしたアラビア方言のラテン文字から英語への翻訳モデル
機械翻訳 Transformers
D
centino00
34
6
Bart Large Cnn Samsum
Apache-2.0
BART-largeアーキテクチャを基にSAMSumデータセットでファインチューニングされた対話要約生成モデル
テキスト生成 Transformers
B
AdamCodd
18
2
Inclusively Reformulation It5
IT5-largeを微調整したイタリア語シーケンス・ツー・シーケンスモデルで、インクルーシブ言語書き換えタスク専用に設計
機械翻訳 Transformers
I
E-MIMIC
70
1
Kot5 Base
KoT5はT5アーキテクチャに基づく韓国語と英語のバイリンガルテキスト生成モデルで、要約生成や書き換え生成などのタスクをサポートします。
大規模言語モデル 複数言語対応
K
wisenut-nlp-team
296
1
Autotrain Fr En Translate 51410121895
これはTransformersベースのフランス語から英語へのテキスト翻訳モデルで、AutoTrainを使用してトレーニングされました。
機械翻訳 Transformers 複数言語対応
A
ybanas
24
3
Bart Base Cnn Swe
MIT
BARTアーキテクチャに基づくスウェーデン語要約モデル、CNN Dailyスウェーデン語データセットでファインチューニング済み
テキスト生成 Transformers その他
B
Gabriel
31
1
Banglat5
BanglaT5はSpan Corruption目標で事前学習されたベンガル語シーケンス・ツー・シーケンストランスフォーマーモデルで、複数のベンガル語自然言語生成タスクにおいて最先端の性能を達成しています。
大規模言語モデル Transformers その他
B
csebuetnlp
1,102
15
It5 Base
Apache-2.0
IT5はイタリア語向けに大規模なシーケンス・ツー・シーケンスTransformerモデルの事前学習を初めて試みたもので、T5モデルアーキテクチャに基づいています。
大規模言語モデル その他
I
gsarti
389
24
It5 Base Oscar
Apache-2.0
イタリア語向けに大規模なシーケンス・ツー・シーケンスTransformerモデルの事前学習を初めて実施したプロジェクトで、OSCARコーパスを用いて学習
大規模言語モデル その他
I
gsarti
19
0
It5 Base News Summarization
Apache-2.0
IT5ベースモデルをファインチューニングしたイタリア語ニュース要約生成モデルで、ニューステキストからキー情報を抽出して簡潔な要約を生成できます。
テキスト生成 その他
I
gsarti
405
5
Bart Paraphrase
Apache-2.0
3つの書き換えデータセットでファインチューニングされた大型BARTシーケンス・ツー・シーケンス(テキスト生成)モデルで、文の書き換えタスクに使用されます。
テキスト生成 Transformers 英語
B
eugenesiow
2,334
30
It5 Small Wiki Summarization
Apache-2.0
WITSデータセットでファインチューニングされたIT5 Smallモデルで、イタリア語ウィキペディアコンテンツの要約生成タスク専用です。
テキスト生成 その他
I
gsarti
32
0
M2m100 418M
MIT
M2M100は100言語に対応した9900の翻訳方向をサポートする多言語エンコーダーデコーダーモデルです
機械翻訳 複数言語対応
M
facebook
1.6M
299
Wmt21 Dense 24 Wide X En
MIT
47億パラメータの多言語エンコーダ-デコーダモデル、7言語から英語への翻訳をサポート
機械翻訳 Transformers 複数言語対応
W
facebook
17
13
Arabic T5 Small
T5v1.1小型アーキテクチャでトレーニングされたアラビア語言語モデルで、複数のアラビア語データセットを統合してトレーニング
大規模言語モデル アラビア語
A
flax-community
279
10
It5 Large
Apache-2.0
IT5は、イタリア語向けに大規模事前学習された最初のシーケンス・ツー・シーケンスTransformerモデルファミリーで、T5モデルの手法に従っています。
大規模言語モデル その他
I
gsarti
37
1
It5 Large News Summarization
Apache-2.0
IT5大規模モデルをFanpageとIl Postのコーパスでファインチューニングしたイタリア語ニュース要約モデル
テキスト生成 その他
I
gsarti
47
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase