# シーケンス・ツー・シーケンスモデル

Mbart For Darija Transaltion
Apache-2.0
mBARTモデルをファインチューニングしたモロッコ方言(Darija)から英語への翻訳モデルで、日常会話や非公式テキストの翻訳に適しています。
機械翻訳
M
echarif
76
1
Greekbart
MIT
GreekBARTはBARTベースのギリシャ語シーケンス・ツー・シーケンス事前学習モデルで、要約生成などの生成タスクに特に適しています。
大規模言語モデル Transformers その他
G
dascim
34
0
VBART Small Base
VBARTは、VNGRSが開発したトルコ語コーパスをゼロから大規模に事前学習した初めてのシーケンス・ツー・シーケンス大規模言語モデルです。
大規模言語モデル Transformers その他
V
vngrs-ai
92
4
VBART Medium Base
VBARTはトルコ語コーパスを基にゼロから大規模に事前学習された初めてのシーケンス・ツー・シーケンス大規模言語モデルで、VNGRSによって開発されました。
大規模言語モデル Transformers その他
V
vngrs-ai
61
3
Wav2vec2 Bartpho
これはベトナム語をサポートする自動音声認識モデルで、正規化されたテキストの出力、タイムスタンプの付与、および複数話者のセグメンテーションが可能です。
音声認識 Transformers その他
W
nguyenvulebinh
472
6
Eng Guj Sim2b
facebook/mbart-large-50-many-to-many-mmtをファインチューニングした英語-グジャラート語翻訳モデル
機械翻訳 Transformers
E
hopkins
4
0
Wavlm Bart
英語の自動音声認識(ASR)をサポートするシーケンス・ツー・シーケンスモデルで、正規化されたテキスト、タイムスタンプ注釈、複数話者セグメンテーションを出力可能です。
音声認識 Transformers 英語
W
nguyenvulebinh
24
2
Bengali Bn To En
これはベンガル語を英語に翻訳するためのシーケンス・ツー・シーケンスモデルです。
機械翻訳 Transformers その他
B
shihab17
13
1
Opus Mt En Ro
Apache-2.0
Helsinki-NLP/opus-mt-en-roモデルを基に微調整した英語-ルーマニア語翻訳モデルで、ccmatrixデータセットで最適化されています
機械翻訳 Transformers 複数言語対応
O
BlackKakapo
592
5
Amazon Review Summarizer Bart
BARTアーキテクチャに基づくシーケンス・ツー・シーケンスモデルで、Amazonの英語ユーザーレビュー向けにファインチューニングされ、レビュー要約を生成するために設計されています
テキスト生成 Transformers
A
mabrouk
113
8
Facebook Bart Large Cnn
MIT
BARTはTransformerベースのシーケンス・ツー・シーケンスモデルで、テキスト要約生成タスク専用です。
テキスト生成 英語
F
Yelyzaveta
24
0
Bart Base Facebook
Apache-2.0
このモデルはfacebook/bart-baseをxsumデータセットでファインチューニングしたバージョンで、主に要約生成タスクに使用されます。
テキスト生成 Transformers
B
sunsvrv
18
0
Bart Large Tos
MIT
BARTはエンコーダー-エンコーダーアーキテクチャを採用したTransformerモデルで、利用規約の抽象的要約タスク向けにファインチューニングされています
テキスト生成 Transformers
B
ML-unipi
21
2
Bartpho Word Base
MIT
BARTphoはベトナム語向けの事前学習シーケンス・ツー・シーケンスモデルで、BARTの'基本'アーキテクチャと事前学習スキームを採用し、ベトナム語テキスト処理タスクに特化して最適化されています。
大規模言語モデル Transformers
B
vinai
1,313
3
Mbart Finetune En Cnn
MBART-large-50をファインチューニングした英語の抽象的要約モデルで、CNN/DailyMailデータセットで訓練されており、ニュース記事の簡潔な要約生成に優れています。
テキスト生成 Transformers 英語
M
eslamxm
19
0
Assignment1 Francesco
MIT
音声からテキストへの変換器(S2T)で訓練された自動音声認識(ASR)モデルで、英語音声認識向けに設計されています
音声認識 Transformers 英語
A
Classroom-workshop
22
0
Scifive Base PMC
SciFiveは生物医学文献に特化したテキスト・ツー・テキスト変換モデルで、PMCオープンアクセスデータセットでトレーニングされています。
大規模言語モデル Transformers 英語
S
razent
52
0
Barthez Sentiment Classification
Apache-2.0
BARThezは、フランス語テキスト処理タスク向けに最適化された事前学習済みのフランス語シーケンス・ツー・シーケンスモデルです。
大規模言語モデル Transformers フランス語
B
moussaKam
408
2
Monot5 3b Msmarco
T5-3Bアーキテクチャに基づくリランカーで、MS MARCOパッセージデータセットで10万ステップ(10エポック)ファインチューニングされ、文書ランキングタスクに使用されます。
大規模言語モデル Transformers
M
castorini
737
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase