Rut5 Base Headline Generation
T5アーキテクチャに基づくロシア語ニュース見出し生成モデルで、短いニューステキストに最適化されており、6〜11語の要約型見出しを生成可能
テキスト生成
Transformers その他

R
wanderer-msk
65
1
Chronos Bolt Small
Apache-2.0
Chronos-Boltは一連の事前学習済み時系列予測モデルで、ゼロショット予測をサポートし、T5エンコーダー-デコーダーアーキテクチャに基づいており、約1000億の時系列観測点を含むデータで訓練されています。
気候モデル
Safetensors
C
amazon
340.81k
10
T5 3b Q4 K M GGUF
Apache-2.0
このモデルはggml.aiのGGUF-my-repoスペースを使用し、llama.cppによってgoogle-t5/t5-3bからGGUF形式に変換された量子化バージョンです。
機械翻訳 複数言語対応
T
VVS2024
15
0
Kazrush Kk Ru
Apache-2.0
kazRush-kk-ruはT5構成に基づくカザフ語からロシア語への翻訳モデルで、複数の並列データセットでトレーニングされています。
機械翻訳
Transformers その他

K
deepvk
2,630
8
Biot5 Plus Large
MIT
BioT5+はT5アーキテクチャに基づく大規模な生物医学言語モデルで、IUPAC統合とマルチタスクチューニングにより広範な生物学理解を実現します。
大規模言語モデル
Transformers 英語

B
QizhiPei
52
2
Ptt5 V2 Base
Apache-2.0
ptt5-v2はポルトガル語向けに事前学習されたT5モデルシリーズで、Googleのオリジナルチェックポイントから継続して学習されています。
大規模言語モデル
Transformers その他

P
unicamp-dl
1,197
2
Ptt5 V2 Small
Apache-2.0
ポルトガル語に最適化された事前学習T5モデル、Googleオリジナルのt5-smallチェックポイントを基に継続学習
大規模言語モデル
Transformers その他

P
unicamp-dl
85
1
Ke T5 Base Aihub Koen Translation Integrated 10m En To Ko
Apache-2.0
これはT5アーキテクチャに基づく英語から韓国語への機械翻訳モデルで、特定のデータセットで微調整トレーニングを行い、高品質な翻訳結果を提供します。
機械翻訳
Transformers 複数言語対応

K
seongs
451
4
FRED T5 Summarizer
MIT
SberDevicesによって開発されたロシア語テキスト要約生成モデル、T5アーキテクチャベース、パラメータ規模1.7B
テキスト生成
Transformers その他

F
RussianNLP
11.76k
21
Udop Large 512
MIT
UDOPは視覚、テキスト、レイアウトを統合した汎用文書処理モデルで、T5アーキテクチャに基づき、文書画像分類、解析、視覚質問応答などのタスクに適しています。
画像生成テキスト
Transformers

U
microsoft
193
5
T5 Translate En Ru Zh Small 1024
Apache-2.0
T5アーキテクチャに基づく多言語翻訳モデルで、ロシア語、中国語、英語間の双方向相互翻訳をサポート
機械翻訳
Transformers 複数言語対応

T
utrobinmv
2,405
34
Ptt5 Base Summ
MIT
PTT5をファインチューニングしたブラジルポルトガル語の抽象要約生成モデルで、ニュースなどのテキストから簡潔な要約を生成できます。
テキスト生成
Transformers その他

P
recogna-nlp
853
0
Madlad400 7b Mt
Apache-2.0
T5アーキテクチャに基づく多言語機械翻訳モデル、400以上の言語をサポート、2500億トークンで訓練
機械翻訳 複数言語対応
M
google
4,450
15
Medical Mt5 Large
Apache-2.0
Medical mT5は医療分野向けの最初のオープンソース多言語テキスト生成モデルで、mT5チェックポイントを基にし、英語、スペイン語、フランス語、イタリア語をサポートしています。
大規模言語モデル
Transformers 複数言語対応

M
HiTZ
3,019
21
Title Generator
Apache-2.0
このモデルはt5-smallアーキテクチャに基づいており、長い医学研究の要約から簡潔なタイトルを自動生成するために使用されます。
テキスト生成
Transformers 英語

T
TusharJoshi89
67
3
Flan T5 Large Squad2
MIT
flan-t5-largeモデルをベースに、SQuAD2.0データセットでファインチューニングした抽出型QAモデルで、回答可能・不可能な質問の処理に対応しています。
質問応答システム
Transformers 英語

F
sjrhuschlee
57
5
Flan T5 Base Squad2
MIT
flan-t5-baseモデルをベースに、SQuAD2.0データセットでファインチューニングされた抽出型質問応答モデルで、無回答を含む質問ペアを処理可能
質問応答システム
Transformers 英語

F
sjrhuschlee
2,425
4
Long Ke T5 Base Translation Aihub Bidirection
Apache-2.0
KETI-AIR/long-ke-t5-baseをファインチューニングした多分野韓英双方向翻訳モデルで、食品、科学技術、社会技術、口語分野の翻訳タスクをサポートします。
機械翻訳
Transformers 複数言語対応

L
KETI-AIR-Downstream
79
3
Long T5 Tglobal Base Sci Simplify Elife
Apache-2.0
Long-T5アーキテクチャに基づくモデルで、科学論文の平易な要約生成に特化しており、複雑な研究内容を非専門家が理解できるテキストに変換します。
テキスト生成
Transformers 英語

L
pszemraj
22.98k
5
Chatgpt Paraphraser On T5 Base
Openrail
T5-baseアーキテクチャで訓練されたテキスト言い換えモデル。高品質な言い換えテキストを生成可能で、Hugging Faceプラットフォームで最高の言い換えモデルの一つと評されている
テキスト生成
Transformers 英語

C
humarin
115.08k
185
FRED T5 Large
Apache-2.0
T5アーキテクチャに基づくロシア語事前学習言語モデルで、UL2に似た7種類のノイズリダクター混合トレーニング戦略を採用し、様々なテキスト生成タスクをサポートします。
大規模言語モデル
Transformers その他

F
ai-forever
998
25
Clinicalt5 Base
ClinicalT5はT5アーキテクチャに基づく生成型言語モデルで、臨床テキスト処理に特化して事前学習されており、医療分野の自然言語処理タスクに適しています。
大規模言語モデル
Transformers

C
luqh
8,202
5
FRED T5 1.7B
Apache-2.0
T5アーキテクチャに基づくロシア語事前学習言語モデルで、UL2に似た7種類のノイズ除去タスクの混合学習戦略を採用し、パラメータ規模は17億
大規模言語モデル
Transformers その他

F
ai-forever
1,671
77
Solidity T5
Apache-2.0
T5アーキテクチャに基づくSolidityスマートコントラクトコード生成モデル、Web3開発専用設計
テキスト生成
Transformers 英語

S
hululuzhu
141
11
Finabsa
Apache-2.0
FinABSAはT5-Largeアーキテクチャでトレーニングされたアスペクト感情分析(ABSA)タスク向けモデルで、複数のアスペクトを含む文章を解析できます。ターゲットアスペクトを[TGT]トークンに置き換えることで、モデルはそのアスペクトの感情予測に集中できます。
大規模言語モデル
Transformers 英語

F
amphora
146
5
Randeng T5 784M QA Chinese
中国語生成型QAの最初の事前学習済みT5モデル、悟道180Gコーパスで事前学習され、中国語SQuADとCMRC2018データセットでファインチューニング済み
質問応答システム
Transformers 中国語

R
IDEA-CCNL
166
32
Ptt5 Base Summ Cstnews
MIT
PTT5をファインチューニングしたブラジルポルトガル語テキスト抽象要約生成モデル
テキスト生成
Transformers その他

P
recogna-nlp
47
8
Ptt5 Base Summ Temario
MIT
PTT5をファインチューニングしたモデルで、ブラジルポルトガル語テキストの抽象的要約を生成するために使用されます。
テキスト生成
Transformers その他

P
recogna-nlp
159
1
Ptt5 Base Summ Wikilingua
MIT
PTT5をファインチューニングしたブラジルポルトガル語テキスト抽象要約生成モデルで、様々な要約生成タスクに対応しています。
テキスト生成
Transformers その他

P
recogna-nlp
38
4
Sentence It5 Base
IT5ベースのイタリア語文章埋め込みモデルで、テキストを512次元ベクトル空間にマッピングし、意味検索やクラスタリングタスクに適しています
テキスト埋め込み
Transformers その他

S
efederici
86
4
T5 Base Qg Hl
MIT
T5-baseアーキテクチャでトレーニングされた回答認識型問題生成モデルで、テキスト内のハイライトされた回答部分に基づいて関連する質問を生成できます。
質問応答システム
Transformers

T
valhalla
11.65k
12
Arat5 Base Title Generation
AraT5はアラビア語用に設計されたテキスト生成モデルシリーズで、現代標準アラビア語版、ツイッター版、汎用版があります。
大規模言語モデル
Transformers アラビア語

A
UBC-NLP
117
12
Gemini
MIT
T5アーキテクチャに基づくコード要約生成モデルで、複数のプログラミング言語のコード解説をサポート
大規模言語モデル
Transformers 英語

G
describeai
844
43
Scifive Large Pubmed
SciFiveは生物医学文献に特化したテキスト変換モデルで、T5アーキテクチャを基に、生物医学分野のテキストタスク処理に焦点を当てています。
大規模言語モデル 英語
S
razent
63
2
Plt5 Large
plT5はT5アーキテクチャに基づき、ポーランド語コーパス向けに訓練された言語モデルで、元のT5のノイズ除去タスクに最適化されています。
大規模言語モデル
Transformers その他

P
allegro
1,366
5
Persian T5 Paraphraser
これはペルシア語のテキスト言い換えモデルで、ペルシア語単一言語T5モデルを基に構築されており、ペルシア語テキストの複数の言い換えバージョンを生成できます。
テキスト生成
Transformers その他

P
erfan226
290
2
T5 Base Japanese Web
Apache-2.0
日本語ウェブテキストで事前学習されたT5モデル、バイトフォールバック対応、32K語彙規模
大規模言語モデル
Transformers 日本語

T
megagonlabs
4,917
19
T5 Base En Generate Headline
50万本のタイトル付き記事を基に訓練されたT5モデルで、与えられた記事に対して簡潔で正確な単行タイトルを生成するために使用されます。
テキスト生成
T
Michau
26.72k
53
Ke T5 Large Ko
Apache-2.0
韓国語と英語で事前学習されたT5モデルで、クロスランゲージ知識駆動型のレスポンス生成をサポート
大規模言語モデル 韓国語
K
KETI-AIR
17
3
Code Trans T5 Base Program Synthese
T5アーキテクチャに基づくLispスタイルDSLコード生成モデル、自然言語記述をプログラムコードに変換
大規模言語モデル
C
SEBIS
16
0
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98