# 英語テキスト処理

Entitybert
Apache-2.0
EntityBERTは、英語テキストの命名エンティティ認識(NER)タスク用に設計された、軽量級で微調整されたTransformerモデルです。
シーケンスラベリング Transformers
E
boltuix
121
11
Liberalmind V1.5 I1 GGUF
Apache-2.0
LiberalMind_v1.5の量子化バージョンで、さまざまな量子化タイプとサイズのファイルを提供し、異なるリソース条件下での効率的な使用に適しています。
大規模言語モデル Transformers 英語
L
mradermacher
513
1
Arxiver Insightsumm T5 Finetuned Model GGUF
Apache-2.0
T5アーキテクチャに基づく静的量子化モデル、学術論文の要約生成タスクに特化
テキスト生成 英語
A
mradermacher
131
0
Flan T5 Base Peft Dialogue Summary Before
Apache-2.0
google/flan-t5-baseモデルを基に、対話要約タスク向けにPEFT手法でパラメータ効率的にファインチューニングしたバージョン
テキスト生成 TensorBoard 英語
F
agoor97
20
0
Text To Cypher Gemma 3 27B Instruct 2025.04.0
Gemma 3 27B Instruct は Google が開発した大規模言語モデルで、neo4j/text2cypher-2025v1 データセットでファインチューニングされており、自然言語を Cypher クエリ言語に変換することに特化しています。
大規模言語モデル Safetensors 英語
T
neo4j
178
5
News Summarizer T5 GGUF
Apache-2.0
これはT5アーキテクチャに基づくニュース要約生成モデルの静的量子化バージョンで、英語テキスト要約タスクをサポートします。
テキスト生成 英語
N
mradermacher
167
0
Bart Large Cnn Finetuned For Email And Text
MIT
BART Large CNNはBARTアーキテクチャに基づく事前学習モデルで、テキスト要約生成タスクに特化しています。
テキスト生成 英語
B
vapit
17
0
Modernbert Base Emotions
ModernBERT-baseをファインチューニングした多クラス感情分類モデルで、7種類の感情ラベルを識別可能
テキスト分類 Transformers 英語
M
cirimus
33
2
Modernbert Base Go Emotions
MIT
ModernBERT-baseをファインチューニングしたマルチラベル感情分類モデルで、28種類の感情ラベルを識別可能
テキスト分類 Transformers 英語
M
cirimus
3,056
4
Deberta Zero Shot Classification
MIT
DeBERTa-v3-baseをファインチューニングしたゼロショットテキスト分類モデルで、アノテーションデータが不足しているシナリオや迅速なプロトタイピングに適しています。
テキスト分類 Transformers 英語
D
syedkhalid076
51
0
Distilbertnewssentiments
これはAutoTrainを使用してSST-2英語データセットでファインチューニングされたDistilBERTモデルで、テキスト分類タスクに使用されます。
テキスト分類 TensorBoard
D
maheshshastrakar
28
1
Stella En 400M V5 Cpu
MIT
stella_en_400M_v5_cpuは、複数の自然言語処理タスクで優れた性能を発揮するモデルで、特に分類、検索、クラスタリング、意味テキスト類似度などのタスクに長けています。
テキスト埋め込み
S
biggunnyso4
612
1
Samsuntextsum
MIT
このモデルはPegasusアーキテクチャに基づき、SAMSUMデータセットでファインチューニングされた英語対話要約モデルです。
テキスト生成 Transformers 英語
S
neuronstarml
20
0
Bart Large Cnn Samsum
MIT
BART-large-cnnをファインチューニングした英語対話要約モデルで、Samsung/samsumデータセットに最適化されています
テキスト生成 Transformers 英語
B
jngan
20
0
Adapter Phi 3 Mini 4k Instruct Summarization
Apache-2.0
Phi-3-mini-4k-instruct はマイクロソフトがリリースした小型の命令ファインチューニング言語モデルで、Phi-3 アーキテクチャに基づいており、様々な自然言語処理タスクに適しています。
大規模言語モデル 英語
A
zhhan
28
1
Deberta V3 Small Base Emotions Classifier
MIT
Fast Emotion-Xは、MicrosoftのDeBERTa V3 Smallモデルをファインチューニングした感情検出モデルで、テキストを6つの感情カテゴリーに正確に分類できます。
テキスト分類 Transformers 英語
D
AnkitAI
518
2
T5 Base Summarization Claim Extractor
T5アーキテクチャに基づくモデルで、要約テキストから原子声明を抽出するために特別に設計されており、要約の事実性評価プロセスの重要なコンポーネントです。
テキスト生成 Transformers 英語
T
Babelscape
666.36k
9
Sms Spam
Apache-2.0
DistilBERTベースのSMSスパム分類モデル。sms_spamデータセットでファインチューニングされ、スパムSMSを識別するために使用されます。
テキスト分類 Transformers 英語
S
akingunduz
25
1
Bert 43 Multilabel Emotion Detection
MIT
bert-base-uncasedをベースに微調整された多ラベル感情分類モデルで、英語テキストを43種類の感情カテゴリに分類できます。
テキスト分類 Transformers 英語
B
borisn70
326
8
Nuner V1 Orgs
FewNERD-fine-supervisedでファインチューニングされたnumind/NuNER-v1.0モデルで、テキスト中の組織エンティティ(ORG)を識別するために使用されます
シーケンスラベリング Transformers 複数言語対応
N
guishe
6,836
2
Roberta Large Zeroshot V2.0 C
MIT
効率的なゼロショット分類のために設計されたRoBERTa-largeモデルで、ビジネスフレンドリーデータで訓練されており、訓練データなしでテキスト分類タスクを実行可能です。
テキスト分類 Transformers 英語
R
MoritzLaurer
53
2
Bart Finetuned Text Summarization
MIT
BARTアーキテクチャを基に微調整されたテキスト要約モデルで、簡潔で正確な要約を生成するために設計されています
テキスト生成 Transformers 英語
B
suriya7
1,547
9
Electra Small Ner
Apache-2.0
electra-smallをファインチューニングした命名エンティティ認識モデルで、場所、人名、組織の3種類のエンティティを認識できます。
シーケンスラベリング Transformers 英語
E
rv2307
74
3
Instructor Xl
Apache-2.0
T5アーキテクチャに基づくセンテンス埋め込みモデルで、英語テキストのセマンティック類似性と情報検索タスクに特化しています。
テキスト埋め込み Transformers 英語
I
retrainai
22
0
Pegasus Samsum
このモデルはsamsumデータセットでgoogle/pegasus-cnn_dailymailをファインチューニングしたバージョンで、主にテキスト要約タスクに使用されます。
テキスト生成 Transformers
P
Feluda
98
3
Fmops Distilbert Prompt Injection Onnx
Apache-2.0
これは fmops/distilbert-prompt-injection モデルの ONNX フォーマット変換バージョンで、プロンプトインジェクション攻撃を検出するために使用されます。
大規模言語モデル Transformers 英語
F
protectai
23
0
Bert Chinese Summarization
これはAutoTrainプラットフォームでトレーニングされた要約生成モデルで、入力テキストから自動的に要約を生成できます。
テキスト生成 Transformers 中国語
B
chiakya
51
2
Dfe Base En 1
これはsentence-transformersに基づく文の埋め込みモデルで、テキストを1536次元のベクトル空間にマッピングでき、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み
D
diwank
62
0
Tinyllama 15M
MIT
TinyStoriesデータセットでトレーニングされた1500万パラメータのLlama 2アーキテクチャモデル
大規模言語モデル Transformers
T
nickypro
3,217
11
Opt 175b Hyperparam
その他
OPTはMeta AIが開発したオープンプリトレーニングTransformer言語モデルで、13億パラメータを含み、GPT-3シリーズモデルに対応
大規模言語モデル Transformers 英語
O
intlsy
26
3
Bert Mini
MIT
Google Researchによってリリースされた小型BERTモデルの1つで、英語専用、大文字小文字を区別せず、WordPieceマスキングでトレーニングされています。
大規模言語モデル Transformers 英語
B
lyeonii
263
1
Gpt2 Medium Finetuned Sst2 Sentiment
Apache-2.0
GPT-2中型モデルをSST-2データセットでファインチューニングした感情分析モデルで、テキスト感情分類タスクに使用されます。
テキスト分類 Transformers 英語
G
michelecafagna26
422
8
Flan T5 Base Tldr News
TLDRニュース記事向けにテキスト要約と見出し生成を行うファインチューニング済みT5モデル
テキスト生成 Transformers 英語
F
ybagoury
16
2
BERT Summary
Apache-2.0
BERT2BERTアーキテクチャに基づく要約生成モデルで、CNN/DailyMailデータセット用に微調整されており、高品質なニュース要約を生成できます。
テキスト生成 Transformers 英語
B
Shobhank-iiitdwd
39
7
Flan T5 Base Samsum
Apache-2.0
Googleのflan-t5-baseモデルをsamsum対話要約データセットでファインチューニングしたテキスト生成モデル
大規模言語モデル Transformers
F
philschmid
13.96k
90
Bart Large Xsum Finetuned Samsum V2
MIT
このモデルは、facebook/bart-large-xsumをベースに、samsumデータセットで微調整されたテキスト要約生成モデルで、対話要約の生成に長けています。
テキスト生成 Transformers
B
amagzari
48
1
E5 Small
MIT
E5-smallは小型のセンテンストランスフォーマーモデルで、文類似度とテキスト埋め込みタスクに特化しており、複数の分類・検索タスクで良好な性能を発揮します。
テキスト埋め込み 英語
E
intfloat
16.96k
41
Gpt2 Finetuned Cnn Summarization V2
MIT
GPT-2をファインチューニングしたテキスト要約生成モデル
テキスト生成 Transformers
G
gavin124
266
7
Gpt2 Finetuned Cnn Summarization V1
MIT
GPT-2をファインチューニングしたテキスト要約生成モデル
テキスト生成 Transformers
G
gavin124
24
1
MLQ Distilbart Bbc
Apache-2.0
このモデルは、sshleifer/distilbart-cnn-12-6をBBCニュース要約データセットでファインチューニングしたテキスト要約モデルで、トリノ工科大学の深層自然言語処理コースの研究室で開発されました。
テキスト生成 Transformers
M
DeepNLP-22-23
20
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase