T5 Small Text Summarization
Apache-2.0
T5-smallアーキテクチャをxsumデータセットでファインチューニングしたテキスト要約モデルで、簡潔な要約を生成できます。
テキスト生成
Transformers

T
bhuvaneswari
27
0
News Summarizer T5
Apache-2.0
google-t5/t5-smallをファインチューニングしたニュース要約生成モデルで、ニューステキストの簡潔な要約を生成できます。
テキスト生成
Transformers

N
SurAyush
62
0
Clip Vit Tiny Random Patch14 336
これはデバッグ用の小型CLIPモデルで、ViTアーキテクチャに基づき、重みをランダムに初期化しています。
テキスト生成画像
Transformers

C
yujiepan
14.47k
0
Gpt2 Demo
その他
GPT-2はTransformerアーキテクチャに基づく自己監督事前学習言語モデルで、テキスト生成タスクに長けています。
大規模言語モデル
Transformers

G
demo-leaderboard
19.21k
1
Gpt Neo 125m Instruction Tuned Sni
MIT
Super-Natural Instructionsデータセットを用いて命令ファインチューニングされた125Mパラメータの言語モデルで、様々な自然言語処理タスクに適しています。
大規模言語モデル
Transformers

G
uoe-nlp
51
1
Llama Lite 134m
Apache-2.0
1億3400万パラメータ、768次元のLlama軽量版、文埋め込みベクトル生成用
テキスト埋め込み
Transformers

L
skeskinen
93
13
Electra Contrastdata Squad
Apache-2.0
このモデルはSQuADデータセットを使用してELECTRA-small判別器をファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム
Transformers

E
mlxen
19
0
Bloom 350m German
MIT
ドイツ語データを使用してゼロからトレーニングされたBLOOM-350m言語モデルで、BLOOMシリーズの小規模バージョンであり、ドイツ語テキスト生成タスクに特化しています。
大規模言語モデル
Transformers ドイツ語

B
malteos
26
0
Tapas Small Masklm
TAPAS (Table Parser) はGoogle Researchによって開発された表ベースの事前学習言語モデルで、表データと自然言語クエリの処理に特化しています。
大規模言語モデル
Transformers

T
google
14
1
Danbert Small Cased
Apache-2.0
DanBERTはBERT-Baseアーキテクチャに基づくデンマーク語事前学習モデルで、200万以上のデンマーク語テキストで学習されています。
大規模言語モデル 複数言語対応
D
alexanderfalk
18
1
Gpt2 Finnish
Apache-2.0
GPT - 2アーキテクチャに基づいて事前学習されたフィンランド語言語モデル、117Mパラメータ版
大規模言語モデル その他
G
Finnish-NLP
201
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98