Noticia 7B I1 GGUF
Apache-2.0
これはNoticIA-7Bモデルを重み/重要度行列量子化したバージョンで、スペイン語ニュースの要約と見出し生成タスクをサポートします
大規模言語モデル スペイン語
N
mradermacher
564
1
Greekbart
MIT
GreekBARTはBARTベースのギリシャ語シーケンス・ツー・シーケンス事前学習モデルで、要約生成などの生成タスクに特に適しています。
大規模言語モデル
Transformers その他

G
dascim
34
0
Roberta News
MIT
RoBERTaアーキテクチャに基づくニュース分野向けマスク言語モデルで、ニューステキストに特化して事前学習されています
大規模言語モデル
Transformers 英語

R
AndyReas
17
1
Arabartsummarization
Apache-2.0
AraBERTベースのアラビア語テキスト要約生成モデルで、現代標準アラビア語のニュース見出し生成とテキスト要約タスクに特化しています。
テキスト生成
Transformers アラビア語

A
abdalrahmanshahrour
71
6
Arabart Summ
Apache-2.0
AraBERTベースのアラビア語テキスト要約生成モデルで、現代標準アラビア語のニュース見出し生成とテキスト書き換えをサポート
テキスト生成
Transformers アラビア語

A
abdalrahmanshahrour
22
3
Greek Title Generator
Apache-2.0
ギリシャ語テキストから見出しを生成するためのシーケンス・ツー・シーケンスモデル
テキスト生成
Transformers その他

G
kriton
103
0
Article2kw Test1.2 Barthez Orangesum Title Finetuned For Summerization
Apache-2.0
barthez-orangesum-titleをファインチューニングしたテキスト要約モデルで、フランス語テキストのキーワード要約生成をサポート
テキスト生成
Transformers

A
bthomas
18
0
Article2kw Test1 Barthez Orangesum Title Finetuned For Summurization
Apache-2.0
barthez-orangesum-titleをファインチューニングした要約生成モデルで、未知のデータセットで訓練され、フランス語テキスト要約タスクをサポートします。
テキスト生成
Transformers

A
bthomas
19
0
Malayalam Summariser
Apache-2.0
google/mt5-smallをファインチューニングしたマラヤーラム語ニュース要約生成モデル
テキスト生成
Transformers その他

M
akhisreelibra
60
0
T5 Small Headline Generator
MIT
t5-smallをファインチューニングした見出し生成モデルで、ニューステキストから簡潔な見出しを生成するために使用されます
テキスト生成
Transformers 英語

T
JulesBelveze
122
9
Mt5 Small Spanish Summarization
Apache-2.0
これはmt5-smallモデルをファインチューニングしたスペイン語ニュース見出し生成モデルで、ニュース本文から見出しを生成します。
テキスト生成
Transformers スペイン語

M
josmunpen
134
2
Rut5 Base Multitask
MIT
GoogleのMT5をベースにしたロシア語・英語対応の簡素化モデルで、翻訳、言い換え、穴埋めなど10種類のテキストタスクをサポート
大規模言語モデル 複数言語対応
R
cointegrated
2,076
42
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98