Openba V1 Based
Apache-2.0
OpenBA はオープンソースの150億パラメータバイリンガル非対称シーケンス・ツー・シーケンスモデルで、ゼロから事前学習されています。
大規模言語モデル
Transformers 複数言語対応

O
OpenNLG
94
10
Question Decomposer T5
これはT5-baseをベースとしたシーケンス・ツー・シーケンスモデルで、複雑な問題を複数のサブ問題に分解するために特別に設計されています。
テキスト生成 英語
Q
thenHung
317
4
Romaneng2nep V3
Apache-2.0
このモデルはgoogle/mt5-smallをファインチューニングした、ローマ字表記のネパール語からネパール語テキストへの変換モデルです
機械翻訳
Transformers 複数言語対応

R
syubraj
29
1
Flan T5 Base Samsum
Apache-2.0
このモデルはgoogle/flan-t5-baseをsamsum対話要約データセットでファインチューニングしたバージョンで、対話要約タスク専用に設計されています。
テキスト生成
Transformers

F
sharmax-vikas
26
0
Sanskrit To English
Apache-2.0
T5-smallをファインチューニングしたサンスクリット語-英語翻訳モデル、itihasaデータセットでトレーニング
機械翻訳
Transformers

S
ubermenchh
81
2
T5 Small Aslg Pc12
Apache-2.0
このモデルはaslg_pc12データセットでt5-smallをファインチューニングしたバージョンで、主に手話翻訳タスクに使用されます。
機械翻訳
Transformers

T
HamdanXI
22
0
Indobart V2 Amr To Text Linearized Penman Ilmy Epochs 3 With Lemma And Upos And Voice
MIT
このモデルはindobenchmark/indobart-v2をファインチューニングしたバージョンで、AMRからテキストへの変換タスクに使用されます。
大規模言語モデル
Transformers

I
abdiharyadi
46
1
Reastap Large Finetuned Wikisql
ReasTAPは表推論に特化した事前学習モデルで、合成推論例を通じて表推論スキルを注入し、WikiSQLデータセットでファインチューニングされています。
質問応答システム
Transformers 英語

R
Yale-LILY
27
1
Bart Large Xsum Finetuned Samsum V2
MIT
このモデルは、facebook/bart-large-xsumをベースに、samsumデータセットで微調整されたテキスト要約生成モデルで、対話要約の生成に長けています。
テキスト生成
Transformers

B
amagzari
48
1
Marian Finetuned Kde4 En To Ja
Apache-2.0
Helsinki-NLP/opus-tatoeba-en-jaをベースにkde4データセットでファインチューニングした英日翻訳モデル
機械翻訳
Transformers

M
Hoax0930
43
0
M2m100 418M Finetuned Kde4 En To Pt BR
MIT
このモデルはfacebook/m2m100_418Mをkde4データセットでファインチューニングした英語からブラジルポルトガル語への翻訳モデルです
機械翻訳
Transformers

M
danhsf
6,528
1
It5 Efficient Small El32 News Summarization
Apache-2.0
IT5効率的な小型EL32アーキテクチャに基づくイタリア語ニュース要約生成モデルで、FanpageとIl Postデータセットでファインチューニング済み
テキスト生成 その他
I
gsarti
97
4
T5 Small Finetuned En To Ro Epoch.04375
Apache-2.0
このモデルはT5-smallアーキテクチャを基にwmt16データセットでファインチューニングされた英語からルーマニア語への翻訳モデルです
機械翻訳
Transformers

T
aretw0
16
0
Marian Finetuned Kde4 En To Fr
Apache-2.0
このモデルは、Helsinki - NLP/opus - mt - en - frをベースに、kde4データセットで微調整された英法翻訳モデルで、評価セットで52.94のBLEUスコアを達成しました。
機械翻訳
Transformers

M
huggingface-course
55
5
Marian Finetuned Kde4 En To Zh TW
Apache-2.0
このモデルは、Helsinki-NLP/opus-mt-en-zhをベースに、kde4データセットで微調整された英語から繁体字中国語への翻訳モデルで、Bleuスコアは39.0863です。
機械翻訳
Transformers

M
peterhsu
38
2
Gpt2 Chinese Couplet
GPT2アーキテクチャに基づく中国語対聯生成モデルで、UER-pyフレームワークで事前学習されており、伝統的な対聯形式に合致する中国語テキストの生成をサポートします。
テキスト生成 中国語
G
uer
491
10
Tts Hubert Cluster Bart Base
Apache-2.0
HuBERTとBARTアーキテクチャに基づく音声処理モデルで、自動音声認識(ASR)タスクをサポートします。
音声認識
Transformers 複数言語対応

T
voidful
24
1
T5 Small Finetuned En To Ro Dataset 20 Input 64
Apache-2.0
T5-smallモデルをwmt16データセットで微調整した英語からルーマニア語への翻訳モデル
機械翻訳
Transformers

T
aretw0
14
0
Squad Mbart Model
未知のデータセットを基に最初から訓練されたmbartモデルで、具体的な用途と特性はさらに補足する必要があります。
質問応答システム
Transformers

S
ZYW
18
0
Sber Rut5 Filler
Apache-2.0
これはロシア語をサポートするテキスト処理モデルで、主にテキスト生成とテキスト補完タスクに使用されます。
大規模言語モデル
Transformers その他

S
IlyaGusev
19
3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98