T0 3B
Apache-2.0
T0++はT5アーキテクチャに基づく自然言語処理モデルで、マルチタスクプロンプトトレーニングによりゼロショットタスク汎化能力を実現し、多くのNLPタスクでGPT-3を上回りながらよりコンパクトです。
大規模言語モデル
Transformers 英語

T
bigscience
3,723
100
Mrt5 Large
MrT5はByT5を改良した効率的なバイトレベルの言語モデルで、動的トークン統合技術により入力シーケンス長を約50%短縮
大規模言語モデル
Transformers 複数言語対応

M
stanfordnlp
33
2
TURNA GGUF
その他
TURNAはトルコ語のエンコーダ-デコーダ言語モデルで、理解と生成能力の強化に焦点を当てています。
大規模言語モデル
Transformers

T
helizac
159
3
Comprehend It Multilingual T5 Base
Apache-2.0
mT5-baseベースの多言語ゼロショット分類モデルで、約100言語の双方向テキスト分類をサポート
テキスト分類
Transformers 複数言語対応

C
knowledgator
420
25
Pile T5 Base
Pile-T5基本版はT5xライブラリを使用し、The Pileデータセットで訓練されたエンコーダ-デコーダモデルで、MLM目標で200万ステップ、約2兆トークン訓練されています。
大規模言語モデル
Transformers 英語

P
EleutherAI
50
19
Medicap
Apache-2.0
MedICapは医療画像説明生成のエンコーダ-デコーダモデルで、ImageCLEFmedical Caption 2023チャレンジで優勝しました。
画像生成テキスト
Transformers

M
aehrc
475
2
Pile T5 Large
Pile-T5 Large は T5x ライブラリを使用し、The Pile データセットでトレーニングされたエンコーダ-デコーダモデルで、主に英語のテキストからテキストを生成するタスクに使用されます。
大規模言語モデル
Transformers 英語

P
EleutherAI
112
15
T5 Small Wikilingua Vietnamese
MIT
Transformerエンコーダ-デコーダアーキテクチャに基づくベトナム語最先端軽量事前学習モデル、テキスト要約タスクに特化。
テキスト生成
Transformers その他

T
minhtoan
43
3
Bert2bert Turkish Paraphrase Generation
Bert2Bertアーキテクチャに基づくトルコ語の言い換え生成モデルで、意味は同じだが表現が異なる文章を生成します。
テキスト生成
Transformers その他

B
ahmetbagci
118
12
Wav2vec2 Large Xlsr 53 German Gpt2
Apache-2.0
これはMOZILLA-FOUNDATION/COMMON_VOICE_7_0ドイツ語データセットでトレーニングされた自動音声認識エンコーダ-デコーダモデルで、Wav2Vec2とGPT2アーキテクチャの利点を組み合わせています。
音声認識
Transformers ドイツ語

W
jsnfly
28
2
Bert Mini2bert Mini Finetuned Cnn Daily Mail Summarization
Apache-2.0
これはBERT-miniアーキテクチャに基づくエンコーダ-デコーダモデルで、CNN/Dailymailデータセットに特化してファインチューニングされ、テキスト要約生成タスク用に設計されています。
テキスト生成
Transformers 英語

B
mrm8488
140
5
Rut5 Base
ruT5-baseはSberDevicesによって開発されたロシア語テキスト生成モデルで、T5アーキテクチャを基にし、2億2200万のパラメータと300GBのトレーニングデータ量を持ちます。
大規模言語モデル
Transformers その他

R
ai-forever
5,946
18
Roberta2roberta L 24 Cnn Daily Mail
Apache-2.0
RoBERTa-Largeで初期化されたエンコーダ-デコーダモデルで、要約生成タスク向けに設計され、CNN/DailyMailデータセットでファインチューニングされています。
テキスト生成
Transformers 英語

R
google
128
6
T0
Apache-2.0
T0++は、英語の自然言語プロンプトでゼロショットタスク汎化能力を示すエンコーダ-デコーダモデルで、多くのタスクでGPT-3を上回りながら、サイズは16分の1です。
大規模言語モデル
Transformers 英語

T
bigscience
2,560
83
T0pp
Apache-2.0
T0ppはT5アーキテクチャに基づく110億パラメータのエンコーダ-デコーダモデルで、英語自然言語プロンプトのゼロショットタスク汎化において優れた性能を発揮し、GPT-3を上回りながらもよりコンパクトなサイズを実現しています。
大規模言語モデル
Transformers 英語

T
bigscience
7,426
401
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98