Train 1000 ViT5 Test
これはVietAI/vit5-baseモデルをベースに、AutoTrainを使用してトレーニングされたシーケンス・ツー・シーケンスモデルで、テキスト生成タスクをサポートします。
大規模言語モデル
Transformers

T
Nosiath
29
1
V1 Kurdana
21人のクルド人詩人による6116編の詩で訓練された詩生成モデル
大規模言語モデル
Transformers その他

V
shkna1368
31
2
Menstrual Health Awareness Chatbot
MIT
これは生理健康に関連する質問に答えるために特別に設計されたQ&Aモデルで、生理健康知識Q&Aデータセットに基づいてトレーニングされています。
対話システム
Transformers

M
adi2606
16
2
English To Tamil
MIT
Transformerアーキテクチャを微調整した英語からタミル語へのシーケンス・ツー・シーケンス翻訳モデル
機械翻訳
Transformers 複数言語対応

E
suriya7
270
6
MLEAFIT Es2ptt5
Apache-2.0
これはT5-smallアーキテクチャをファインチューニングしたスペイン語からポルトガル語への翻訳モデルで、tatoebaデータセットでトレーニングされ、BLEUスコアは11.2994です。
機械翻訳
Transformers

M
jdmartinev
38
1
Billsum Full Data
Apache-2.0
facebook/bart-baseをbillsumデータセットでファインチューニングしたテキスト要約生成モデル
テキスト生成
Transformers

B
cs608
15
0
T5 Small 6 3 Hi En To En
これはT5-smallアーキテクチャに基づくシーケンス・ツー・シーケンスモデルで、ヒンディー語と英語の混合テキスト(hi_en)を標準英語(en)に翻訳するために特別に設計されています。
機械翻訳
Transformers

T
sayanmandal
38
2
It5 Base Wiki Summarization
Apache-2.0
WITSデータセットでファインチューニングされたイタリア語ウィキペディア要約モデルで、イタリア語テキストから簡潔な要約を生成できます。
テキスト生成 その他
I
gsarti
18
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98