Dsi Transformers Code T5 Base Python
Apache-2.0
Salesforce/codet5-baseをベースに微調整されたコード処理モデルで、Pythonコード関連のタスクに特化しています。
大規模言語モデル
Transformers

D
ngocnamk3er
342
1
T5 Small Finetuned Xsum
Apache-2.0
T5-smallモデルをXSumデータセットでファインチューニングしたテキスト要約モデル
テキスト生成
Transformers

T
bdwjaya
103
0
Chronos Bolt Base
Apache-2.0
Chronos-Boltはゼロショット予測をサポートする事前学習済み時系列予測モデルのシリーズで、T5エンコーダ-デコーダアーキテクチャに基づき、約1000億の時系列観測点を含むデータで学習されています。
気候モデル
C
amazon
1.5M
42
Kazrush Ru Kk
Apache-2.0
kazRush-ru-kkは、T5構成に基づくロシア語からカザフ語への翻訳モデルで、複数のオープンソースの平行データセットで訓練されています。
機械翻訳
Transformers その他

K
deepvk
332
8
T5 Small Finetuned Hausa To Chinese
Apache-2.0
T5-smallをファインチューニングしたハウサ語から中国語への翻訳モデルで、BLEU評価指標で30.26点を達成
機械翻訳
Transformers

T
Kumshe
21
1
Flan T5 Base Summarization Pt Br
MIT
FLAN-T5ベースのポルトガル語(ブラジル)テキスト要約モデル、命令微調整で最適化
テキスト生成
Transformers その他

F
PamelaBorelli
71
1
Sage Fredt5 Large
MIT
FRED-T5-largeでトレーニングされたロシア語スペルチェックモデル。スペルミス、句読点、大文字小文字の誤りを修正可能
テキスト生成
Transformers その他

S
ai-forever
189
14
T5 Translate En Ru Zh Large 1024
Apache-2.0
これはT5アーキテクチャに基づく多言語機械翻訳モデルで、英語、ロシア語、中国語間の相互翻訳をサポートしています。
機械翻訳
Transformers 複数言語対応

T
utrobinmv
1,472
85
T5 Translate En Ru Zh Base 200
Apache-2.0
T5アーキテクチャに基づく多言語翻訳モデルで、ロシア語、中国語、英語間の双方向翻訳をサポートします。
機械翻訳
Transformers 複数言語対応

T
utrobinmv
500
10
Rut5 Base Summ Dialogsum
d0rj/rut5-base-summをファインチューニングしたロシア語対話要約モデル、DialogSumデータセットで訓練
テキスト生成
Transformers

R
Kekega
15
1
T5 Base Emojilm
T5アーキテクチャに基づく事前学習モデルで、英文を絵文字のシーケンスに変換できます
テキスト生成
Transformers 英語

T
KomeijiForce
406
4
Grammar T5
Apache-2.0
jflegデータセットに基づいて構築された文法チェックモデルで、t5-baseアーキテクチャを採用し、英文法の修正に特化しています。
大規模言語モデル
Transformers

G
vagmi
17
1
Flan T5 Base Opus En Id Id En
Apache-2.0
FLAN-T5アーキテクチャに基づく英語-インドネシア語双方向翻訳モデル
機械翻訳
Transformers 複数言語対応

F
muvazana
22
0
Long T5 Base Govreport
Apache-2.0
Long-T5アーキテクチャに基づく政府報告要約生成モデルで、長文書要約タスクに特化して最適化されています。
テキスト生成
Transformers 英語

L
AleBurzio
866
2
Comet Atomic En
T5アーキテクチャに基づく英語イベント推論モデルで、イベントの前提条件、影響、意図、反応を分析するために使用されます
大規模言語モデル
Transformers 英語

C
svjack
319
3
Ptt5 Base Summ Xlsum
MIT
PTT5をファインチューニングしたブラジルポルトガル語テキスト抽象要約生成モデルで、ニュースなど様々なテキストの要約生成をサポートします。
テキスト生成
Transformers その他

P
recogna-nlp
3,754
16
Longt5 Base Global Mediasum
google/long-t5-tglobal-baseをファインチューニングしたテキスト要約モデルで、XSumおよびCNN/DailyMailデータセットで良好なパフォーマンスを発揮します。
テキスト生成
Transformers

L
nbroad
19
0
T5 Grammar Corruption
Apache-2.0
t5-baseモデルを微調整した文法チェックモデルで、テキストの文法誤り検出と修正に使用されます
機械翻訳
Transformers

T
juancavallotti
19
1
Molt5 Small
Apache-2.0
MOLT5-smallは、事前学習モデルに基づく分子と自然言語の変換モデルで、分子構造と自然言語の記述を相互に変換することができます。
分子モデル
Transformers

M
laituan245
443
2
Molt5 Base
Apache-2.0
molt5-base は T5 アーキテクチャに基づくモデルで、分子と自然言語間の翻訳タスクに特化しています。
機械翻訳
Transformers

M
laituan245
3,617
1
Byt5 Xxl
Apache-2.0
ByT5はGoogleのT5のトークナイザー不要バージョンで、UTF-8バイト列を直接処理し、多言語テキスト処理をサポートし、特にノイズデータの処理に優れています。
大規模言語モデル
Transformers 複数言語対応

B
google
1,872
18
T5 Qa Squad2neg En
MIT
T5-smallアーキテクチャに基づく質問応答システムモデルで、抽出型QAタスクをサポートし、回答可能・不可能なケースを処理可能
質問応答システム 複数言語対応
T
ThomasNLG
533
0
Indot5 Small
インドネシア語のmC4データセットを基に事前学習されたT5小型モデルで、微調整後に使用する必要があります。
大規模言語モデル
Transformers その他

I
Wikidepia
83
0
Ptt5 Large T5 Vocab
MIT
PTT5はBrWacコーパスを使って事前学習されたT5モデルで、ポルトガル語に特化して最適化されており、複数のサイズと語彙表を提供します。
大規模言語モデル
Transformers その他

P
unicamp-dl
45
2
Gec T5 Small
Apache-2.0
T5-smallアーキテクチャに基づく文法誤り訂正モデルで、英語テキストの文法誤りを自動検出・修正します。
大規模言語モデル
Transformers 英語

G
Unbabel
4,285
25
Rut5 Base Detox
ruT5-baseをベースに訓練されたロシア語テキストの有害表現除去モデルで、有害なロシア語テキストを中立的な表現に変換します。
機械翻訳
Transformers その他

R
s-nlp
193
9
T5 Paraphrase Paws
T5アーキテクチャに基づく英語文の言い換え生成モデル、Google PAWSデータセットで学習済み
テキスト生成 英語
T
Vamsi
67.42k
38
T5 Small Ssm Nq
Apache-2.0
T5-small-ssm-nqはT5アーキテクチャに基づく小型の闭卷问答モデルで、C4、ウィキペディア、自然な質問(NQ)データセットで事前学習と微調整が行われています。
質問応答システム 英語
T
google
300
1
T5 Paraphrase Paws Msrp Opinosis
Apache-2.0
これはT5-baseアーキテクチャに基づく解釈モデルで、PAWS、MSRP、Opinosisデータセットで微調整され、主にテキストの解釈と書き換えタスクに使用されます。
機械翻訳 英語
T
ceshine
77
3
Plsum Base Ptt5
PLSUMはポルトガル語用の複数文書抽出型要約モデルで、複数の文書から重要な文を抽出し、ウィキペディアのような要約を生成することができます。
テキスト生成
Transformers

P
seidel
22
4
Triviaqa T5 Base
T5-baseアーキテクチャに基づくトリビアQAモデル。コンテキスト不要のトレーニングでクローズドブックQA能力を実現
質問応答システム
Transformers 英語

T
deep-learning-analytics
79
3
T5 Base Cnn Dm
Apache-2.0
このモデルはT5アーキテクチャを微調整したニュース要約生成モデルで、学習データはCNN/DailyMailニュースデータセットから取得されています。
テキスト生成 英語
T
flax-community
808
1
Rut5 Base Absum
MIT
これはT5アーキテクチャに基づき、複数のデータセットでファインチューニングされたロシア語の抽象的要約生成モデルで、簡潔で正確なテキスト要約を生成できます。
テキスト生成
Transformers その他

R
cointegrated
1,135
27
Keytotext Small
T5-smallアーキテクチャに基づくキーワードからテキストを生成するモデルで、入力されたキーワードを首尾一貫した文章に変換できます。
テキスト生成
Transformers

K
gagan3012
20
0
Kgt5 Wikikg90mv2
MIT
WikiKG90Mv2データセットでトレーニングされたT5モデル、知識グラフにおける末尾エンティティ予測タスク用
知識グラフ
Transformers

K
apoorvumang
22
1
T5 Weighter Cnndm En
MIT
T5-smallアーキテクチャに基づく分類器で、回答/質問の組み合わせの重要性を評価し、回答が要約に含まれるのに十分な関連性があるかを判断します。
質問応答システム 複数言語対応
T
ThomasNLG
178
0
T5 Base GNAD
T5-Baseアーキテクチャに基づいてドイツ語データセットで微調整されたテキスト要約生成モデル
テキスト生成
Transformers ドイツ語

T
Einmalumdiewelt
2,991
22
Code Trans T5 Base Api Generation Multitask Finetune
T5アーキテクチャに基づく事前学習モデルで、Java API推薦生成タスクに特化して設計され、マルチタスク学習により性能を最適化しました。
大規模言語モデル
C
SEBIS
16
0
T5 Vi En Base
T5アーキテクチャに基づくベトナム語 - 英語機械翻訳モデル
機械翻訳
T
NlpHUST
17
2
Query Gen Msmarco T5 Base V1
T5-baseアーキテクチャに基づくクエリ生成モデルで、テキスト段落に対して可能な検索クエリを生成し、ラベル付きデータなしで意味検索モデルを訓練できます。
テキスト生成
Q
BeIR
417
17
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98