Ag News Distilbert
Apache-2.0
distilbert-base-uncasedをファインチューニングしたテキスト分類モデルで、AG Newsデータセットで訓練され、精度は89.06%
テキスト分類
Transformers

A
huggingfacecoin
31
1
Flant5summarize
これはCNNDailyMailデータセットでファインチューニングされたFlan T5ベースモデルの要約生成モデルで、ニュース記事を簡潔な要約に圧縮できます。
テキスト生成
Safetensors 英語
F
Ismetdh
21
0
Hacker News Comments Summarization Llama 3.1 8B Instruct I1 GGUF
これはLlama-3.1アーキテクチャに基づく8Bパラメータモデルで、Hacker Newsのコメント要約生成に特化しています。
大規模言語モデル 英語
H
mradermacher
2,154
0
Bart Base Finetuned Cnn
Apache-2.0
BARTアーキテクチャに基づく事前学習モデルで、英語ニュース記事のテキスト要約タスク専用です。
テキスト生成
Transformers 英語

B
gsasikiran
20
0
T5 Small Finetuned Samsum
T5 Smallアーキテクチャを微調整した対話要約モデルで、Samsung/samsumデータセットに特化して最適化されており、簡潔で正確な対話要約を生成できます。
テキスト生成
TensorBoard

T
user10383
11
0
Text Summarize BartBaseCNN Finetune
MIT
BARTアーキテクチャに基づくテキスト要約モデルで、英語の科学論文の要約生成タスクに適しています。
テキスト生成
Transformers 英語

T
GilbertKrantz
0
0
Congress Bill Summary Model
Apache-2.0
T5-smallをファインチューニングしたテキスト要約モデルで、議会法案の内容要約に特化
テキスト生成
Transformers

C
cheaptrix
33
1
Mt5 Small Finetuned Cnndailymail En
Apache-2.0
google/mt5-smallモデルをcnn_dailymailデータセットでファインチューニングした要約生成モデル
テキスト生成
Transformers

M
Skier8402
16
0
Distilbert NER
Apache-2.0
DistilBERTをファインチューニングした軽量な固有表現認識モデル、性能と効率のバランス
シーケンスラベリング
Transformers 英語

D
dslim
48.95k
34
Bart Keyword Extractor
Apache-2.0
facebook/bart-largeをベースにファインチューニングしたテキストキーワード抽出モデル
テキスト生成
Transformers 英語

B
ilsilfverskiold
558
7
OPT PET Impression
これはBERTベースの医学テキスト要約モデルで、英文テキスト処理をサポートし、医学文献やレポートの自動要約生成に適しています。
テキスト生成
Transformers 英語

O
xtie
15
0
Tst Summarization
google/pegasus-xsumをファインチューニングしたニュース要約生成モデル、cnn_dailymailデータセットで学習
テキスト生成
Transformers 英語

T
ChaniM
23
0
All MiniLM L6 V2 Ct2 Int8
Apache-2.0
これはMiniLMアーキテクチャに基づく文埋め込みモデルで、テキストを384次元のベクトル空間にマッピングでき、意味検索やテキスト類似度タスクに適しています。
テキスト埋め込み 英語
A
jncraton
40
0
Chat Topics
MIT
BERTopicベースのチャットトピック分類モデルで、大量のテキストデータから自動的にトピックを識別・分類可能
テキスト分類 英語
C
davanstrien
262
6
Pegasus X Large Book Summary
Bsd-3-clause
Pegasus-X-Largeアーキテクチャに基づく書籍要約生成モデルで、長文ドキュメントや書籍内容の要約生成タスクに優れています。
テキスト生成
Transformers

P
pszemraj
734
35
T5 Small Finetuned Cnn News
Apache-2.0
T5-smallモデルをCNN/DailyMailニュースデータセットでファインチューニングしたテキスト要約モデルで、ニュース記事の簡潔な要約を生成できます。
テキスト生成
Transformers

T
shivaniNK8
25
0
Ner Bert Base Cased Ontonotesv5 Englishv4
BERT-base-casedアーキテクチャに基づいて微調整された命名エンティティ識別モデルで、テキスト内のさまざまな種類の命名エンティティを識別するために特別に設計されています。
シーケンスラベリング
Transformers

N
djagatiya
1,060
3
T5 Small Finetuned Cnn V2
Apache-2.0
T5-smallモデルをcnn_dailymailデータセットでファインチューニングしたテキスト要約生成モデル
テキスト生成
Transformers

T
ubikpt
20
1
All Mpnet Base V2 Feature Extraction
Apache-2.0
MPNetアーキテクチャに基づく文埋め込みモデルで、テキストを768次元ベクトル空間にマッピングでき、意味検索やテキスト類似性タスクに適しています
テキスト埋め込み 英語
A
guidecare
4,539
0
Bert Finetuned Ner 0
Apache-2.0
このモデルはbert-base-casedを未知のデータセットでファインチューニングしたバージョンで、主に固有表現抽出(NER)タスクに使用されます。
シーケンスラベリング
Transformers

B
mariolinml
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
SQuADデータセットでファインチューニングされたDistilBERTモデルに基づく質問応答モデル
質問応答システム
Transformers

D
shaojie
16
0
Bart Base Finetuned Samsum En
Apache-2.0
このモデルはfacebook/bart-baseをsamsumデータセットでファインチューニングしたバージョンで、要約生成タスク専用です。
テキスト生成
Transformers

B
santiviquez
25
0
Bert Base Uncased Ganesh123
BERTベースモデルをファインチューニングしたバージョン、具体的な用途とトレーニングデータの情報は不明
大規模言語モデル
Transformers

B
stevems1
173
0
Twteval Pretrained
MIT
BERT-BASE-UNCASEDアーキテクチャに基づく事前学習済み感情分析モデルで、TWTEVALデータセット向けに最適化されています。
テキスト分類
Transformers

T
ArnavL
26
0
Distilbert Imdb Positive
このモデルはDistilBERTアーキテクチャに基づく軽量テキスト分類モデルで、IMDb映画レビューのポジティブ感情分析タスク向けに特別にファインチューニングされています。
テキスト分類
Transformers

D
michalwilk123
26
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み、英文テキストのエンティティラベリングタスクに適しています。
シーケンスラベリング
Transformers

D
codingJacob
16
0
English Pert Base
PERTはBERTに基づく事前学習言語モデルで、英語テキスト処理タスクをサポートします。
大規模言語モデル
Transformers 英語

E
hfl
37
6
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTに基づく軽量な命名エンティティ認識モデルで、特定のデータセットで微調整され、英文テキストのエンティティ認識タスクに適しています。
シーケンスラベリング
Transformers

D
mcdzwil
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
distilbert-base-uncasedモデルをwikiannデータセットで微調整した命名エンティティ認識モデルで、評価セットでF1値0.8210の優れた成績を収めました。
シーケンスラベリング
Transformers

D
dbsamu
15
0
Autonlp Cola Gram 208681
これはAutoNLPプラットフォームで訓練された二値分類モデルで、文法の正しさを判断するために使用されます。
テキスト分類
Transformers 英語

A
kamivao
16
0
Bart Fine Tune
CNN/デイリーメールデータセットで訓練された要約生成モデルで、ニュース記事の簡潔な要約を自動生成できます。
テキスト生成
B
MohamedZaitoon
23
1
Distilbert Bert Summarization Cnn Dailymail
cnn_dailymailデータセットを基に微調整されたテキスト要約モデルで、DistilBERTアーキテクチャを使用して訓練されました。
テキスト生成
Transformers

D
Ayham
19
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98