Finetuning Sentiment Model 3000 Samples
Apache-2.0
distilbert-base-uncasedを基に微調整した感情分析モデルで、評価セットで87.67%の精度を達成
テキスト分類
Transformers

F
mayank15122000
111
1
Medical Embedded V2
Apache-2.0
これは多言語の文埋め込みモデルで、文や段落を512次元の密ベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み 複数言語対応
M
shtilev
516
1
Finetuning Sentiment Model 3000 Samples 1
Apache-2.0
distilbert-base-uncasedを基にファインチューニングした感情分析モデルで、評価セットで85.67%の精度を達成
テキスト分類
Transformers

F
nayaksaroj
23
1
Phishing Email Detection Distilbert V2.4.1
Apache-2.0
このモデルはDistilBERTアーキテクチャに基づいており、メールやURLが安全かフィッシングリスクがあるかを判断するためのマルチラベル分類タスク向けに設計されています。
テキスト分類
Transformers 英語

P
cybersectony
630
6
Distilbert Nsfw Text Classifier
Apache-2.0
DistilBERTベースのテキスト二分類モデルで、安全なコンテンツと制限付きコンテンツ(NSFW)を識別し、コンテンツ審査シナリオに適しています。
テキスト分類
Transformers 英語

D
eliasalbouzidi
26.54k
17
Distilbert Eco ZeroShot
Apache-2.0
このモデルは、DistilBERTを経済学データセットでファインチューニングしたゼロショット分類モデルで、経済学関連テキストの分類タスクに適しています。
大規模言語モデル
Transformers 英語

D
AyoubChLin
16
0
Extractive Question Answering Not Evaluated
Apache-2.0
このモデルはSQuADデータセットでファインチューニングされたDistilBERTモデルで、抽出型質問応答タスクに使用され、高い正確一致率とF1スコアを有します。
質問応答システム
Transformers

E
autoevaluate
18
2
E4a Covid Question Answering
MIT
新型コロナ関連クエリ向けのルーマニア語Q&Aモデル、ルーマニア語DistilBERTベース
質問応答システム
Transformers

E
racai
14
0
Biomedical Ner All
Apache-2.0
distilbert-base-uncasedを基に訓練された英語の命名エンティティ認識モデルで、生物医学エンティティ(107種類)の識別に特化しており、症例報告などのテキストコーパスに適しています。
シーケンスラベリング
Transformers 英語

B
d4data
112.41k
165
Distilbert Base Uncased Finetuned Ner
Apache-2.0
このモデルはDistilBERTの軽量版をベースとしており、conll2003データセットで固有表現抽出タスク向けにファインチューニングされています。
シーケンスラベリング
Transformers

D
Udi-Aharon
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
ACSHCSE
15
0
Distilbert Base Uncased Mnli
大文字小文字を区別しないDistilBERTモデルを基に、マルチジャンル自然言語推論(MNLI)データセットでファインチューニングされ、ゼロショット分類タスク向けに最適化
テキスト分類
Transformers 英語

D
optimum
53
3
Distilbert Base Multilingual Cased Toxicity
JIGSAW毒性コメント分類チャレンジのデータセットを基に訓練された多言語テキスト毒性分類モデルで、10種類の言語に対応しています。
テキスト分類
Transformers 複数言語対応

D
citizenlab
12.69k
19
Distilbert Base Turkish Cased Allnli Tr
Apache-2.0
dbmdz/distilbert-base-turkish-casedをファインチューニングしたトルコ語ゼロショット分類モデル
テキスト分類
Transformers その他

D
emrecan
15
1
Bias Detection Model
これはMBADデータセットで訓練された英語シーケンス分類モデルで、ニュース記事のバイアスと公平性を検出するために使用されます。
テキスト分類
Transformers 英語

B
d4data
23.19k
44
Transformers Qa
Apache-2.0
このモデルは、distilbert-base-casedをSQuADデータセットで微調整した问答モデルで、Keras.ioの问答チュートリアル用に訓練されました。
質問応答システム
Transformers

T
keras-io
23
4
Industry Classification
DistilBERTに基づくモデルで、商業記述を62の業種タグのいずれかに分類するために使用されます。
テキスト分類
Transformers 英語

I
sampathkethineedi
210
23
Sentencetransformer Distilbert Base Cased
これはDistilBERTに基づく文変換モデルで、テキストを768次元のベクトル空間にマッピングでき、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み
Transformers

S
aditeyabaral
47
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
leonadase
15
0
Distilbert Base Multilingual Cased Ner Hrl
10種類の高リソース言語を対象とした命名エンティティ認識モデルで、微調整されたDistil BERTベースモデルに基づいており、場所、組織、人物の3種類のエンティティを認識できます。
シーケンスラベリング
Transformers

D
Davlan
270.56k
78
Distilbert Srb Ner
DistilBERTアーキテクチャに基づく軽量モデルで、セルビア語の固有表現認識タスク専用に設計され、wikiannデータセットでトレーニングされました。
シーケンスラベリング
Transformers その他

D
Aleksandar
16
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量な固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
Hank
15
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98