Lm Ner Linkedin Skills Recognition
DistilBERTベースのLinkedIn技能識別モデルで、テキストから専門技能を識別するために使用されます。
シーケンスラベリング
Transformers

L
algiraldohe
1,194
21
Distilbert Mlm 1000k
DistilBERTはBERTの軽量級蒸留バージョンで、BERTの97%の性能を維持しながら、サイズを40%縮小し、速度を60%向上させます。
大規模言語モデル
Transformers

D
vocab-transformers
26
0
Distilbert Mlm 750k
DistilBERTはBERTの軽量級蒸留バージョンで、大部分の性能を維持しながらパラメータが少なくなっています。
大規模言語モデル
Transformers

D
vocab-transformers
26
0
Distilbert Base Uncased Finetuned Clinc
Apache-2.0
このモデルは、DistilBERTをベースにclinc_oosデータセットで微調整されたテキスト分類モデルで、主に意図識別タスクに使用されます。
テキスト分類
Transformers

D
msavel-prnt
15
0
Distilbert Feature Extraction
DistilBERTはBERTの軽量級蒸留バージョンで、BERTの97%の性能を維持しながら、サイズを40%縮小しています。
大規模言語モデル
Transformers

D
julien-c
2,223
2
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTに基づく軽量級の命名エンティティ認識モデルで、未知のデータセットで微調整され、効率的な推論速度と良好なエンティティ認識能力を持っています。
シーケンスラベリング
Transformers

D
malduwais
17
0
NER RUBERT Per Loc Org
BERTアーキテクチャに基づく軽量級のロシア語命名エンティティ認識モデルで、人物、場所、組織の3種類のエンティティの認識をサポートします。
シーケンスラベリング
Transformers

N
tesemnikov-av
15
0
Distilbert Base Uncased Finetuned Emotion
Apache-2.0
DistilBERTに基づく軽量級テキスト感情分類モデルで、emotionデータセットで微調整され、正解率は92.05%に達します。
テキスト分類
Transformers

D
frahman
17
0
Distilbert Imdb Negative
これは、IMDbのネガティブレビューで微調整されたDistilBERTモデルで、感情分析タスクに使用されます。
テキスト分類
Transformers

D
michalwilk123
35
0
Albert Fa Base V2 Clf Persiannews
Apache-2.0
ペルシア語の自己教師付き学習言語表現のために作られた軽量級BERTモデル
大規模言語モデル
Transformers その他

A
m3hrdadfi
46
3
Albert Fa Base V2
Apache-2.0
ペルシア語の言語表現の自己教師付き学習に使用される軽量級BERTモデル
大規模言語モデル
Transformers その他

A
m3hrdadfi
43
4
Bert Tiny Finetuned Fake News Detection
BERT Tinyアーキテクチャに基づいて微調整された軽量級の偽ニュース検出モデルで、中国語テキスト分析に適しています。
テキスト分類
Transformers 英語

B
mrm8488
3,336
1
Albert Fa Base V2 Sentiment Multi
Apache-2.0
ペルシャ語の自己教師付き学習言語表現のための軽量級BERTモデル
大規模言語モデル
Transformers その他

A
m3hrdadfi
39
1
Distilbert Base Uncased Sentiment Sst2
Apache-2.0
DistilBERTアーキテクチャに基づく軽量級感情分析モデルで、SST2データセットに特化して微調整され、テキスト中のポジティブまたはネガティブな感情を識別できます。
テキスト分類 英語
D
bhadresh-savani
16
1
Indobert Lite Base P2
MIT
IndoBERTはインドネシア語向けに開発されたトップクラスの言語モデルで、BERTアーキテクチャに基づき、マスク言語モデリングと次文予測の目標を用いて訓練されています。
大規模言語モデル
Transformers その他

I
indobenchmark
2,498
0
Mobilebert Finetuned Pos
MIT
MobileBERTは軽量級のBERTバリアントで、モバイルデバイス向けに最適化され、高い性能を維持しています。
シーケンスラベリング 複数言語対応
M
mrm8488
40.13k
8
Tiny Bert Sst2 Distilled
Apache-2.0
これはTiny BERTアーキテクチャに基づくテキスト分類モデルで、GLUEのSST - 2データセットで微調整され、感情分析タスクに使用されます。
テキスト分類
Transformers

T
philschmid
8,080
2
Distilroberta Base
Apache-2.0
DistilRoBERTaはRoBERTaモデルの軽量級蒸留バージョンで、大部分の性能を維持しながら、サイズが小さく、速度が速い。
大規模言語モデル
Transformers 英語

D
typeform
37
0
Rbt6
Apache-2.0
これは再学習された6層のRoBERTa-wwm-extモデルで、全単語マスキング技術を用いて中国語の事前学習を行っています。
大規模言語モデル 中国語
R
hfl
796
9
Distilbert Base Uncased Finetuned Ner
Apache-2.0
distilbert-base-uncasedモデルをwikiannデータセットで微調整した命名エンティティ認識モデルで、評価セットでF1値0.8210の優れた成績を収めました。
シーケンスラベリング
Transformers

D
dbsamu
15
0
Distilbert Base Uncased Finetuned Ingredients
Apache-2.0
このモデルは、distilbert-base-uncasedをingredients_yes_noデータセットで微調整したバージョンで、ラベル分類タスクに使用されます。
シーケンスラベリング
Transformers

D
harr
20
5
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量級命名エンティティ認識モデルで、conll2003データセットで微調整されました。
シーケンスラベリング
Transformers

D
lucasmtz
14
0
Indobert Lite Large P1
MIT
IndoBERTはインドネシア語用の先進的な言語モデルで、BERTアーキテクチャに基づき、マスク言語モデリングと次文予測の目的で訓練されています。
大規模言語モデル
Transformers その他

I
indobenchmark
42
0
Albert Fa Base V2 Ner Peyma
Apache-2.0
初のペルシア語向けALBERTモデルで、GoogleのALBERT基礎版2.0アーキテクチャに基づき、多様なペルシア語コーパスで学習されたものです。
大規模言語モデル
Transformers その他

A
m3hrdadfi
19
1
Albert Fa Base V2 Clf Digimag
Apache-2.0
初のペルシア語向けの軽量級ALBERTモデルで、GoogleのALBERT BASE 2.0バージョンをベースに訓練されました。
大規模言語モデル
Transformers その他

A
m3hrdadfi
14
0
Albert Base V2 Emotion
Apache-2.0
ALBERTアーキテクチャに基づく軽量級感情分析モデルで、Twitter感情データセットで微調整されています。
テキスト分類 英語
A
bhadresh-savani
15.44k
3
Distilbert Base Uncased Finetuned Emotion Test 01
Apache-2.0
DistilBERTに基づく軽量級テキスト感情分類モデルで、emotionデータセットで微調整されました。
テキスト分類
Transformers

D
lewtun
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTに基づく軽量級の命名エンティティ認識モデルで、conll2003データセットで微調整され、効率的な推論性能と高い精度を持っています。
シーケンスラベリング
Transformers

D
indridinn
15
0
Chinese Mobile Bert
Apache-2.0
このモデルは2.5億の中国語コーパスに基づき、MobileBERTアーキテクチャを用いて事前学習を行い、トレーニング周期は15日で、単一のA100グラフィックカード上で100万ステップの反復を完了しました。
大規模言語モデル
Transformers

C
Ayou
25
5
Mengzi Bert Base
Apache-2.0
300Gの中国語コーパスに基づいて事前学習されたBERTモデルで、MLM、POS、SOPタスクを用いて学習
大規模言語モデル
Transformers 中国語

M
Langboat
438
37
Distilbert Base Spanish Uncased
DistilBERTアーキテクチャに基づく軽量級スペイン語事前学習言語モデルで、さまざまな自然言語処理タスクに適しています。
大規模言語モデル
Transformers スペイン語

D
dccuchile
1,686
11
Distilbert Base Uncased Sst2 Train 16 3
Apache-2.0
このモデルは、distilbert-base-uncasedをSST-2データセットでファインチューニングしたバージョンで、主にテキストの感情分析タスクに使用されます。
テキスト分類
Transformers

D
SetFit
34
0
Distilbert Complaints Product
DistilBERTベースの金融苦情分類モデルで、18種類の苦情タイプを識別できます。
テキスト分類
Transformers

D
Kayvane
14
3
Distilbert Base Ar Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの多言語汎用版のカスタマイズされた簡素化バージョンで、アラビア語に特化して最適化されており、元のモデルの表現能力と精度を維持しています。
大規模言語モデル
Transformers アラビア語

D
Geotrend
15
0
Distilbert Punctuator Zh
DistilBertForTokenClassificationをベースに微調整した中国語の句読点復元モデルで、句読点のない中国語テキストに句読点を付けるために設計されています。
シーケンスラベリング
Transformers

D
Qishuai
103
4
Distilbert Base Es Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの多言語版をカスタマイズした簡素化バージョンで、スペイン語処理に特化して最適化されています。
大規模言語モデル
Transformers スペイン語

D
Geotrend
3,382
3
Distilbert Base Chinese Amazon Zh 20000
このモデルはbert-base-chineseを未知のデータセットで微調整したバージョンで、主に中国語テキスト処理タスクに使用されます。
大規模言語モデル
Transformers

D
ASCCCCCCCC
14
0
Robbertje 1 Gb Shuffled
MIT
RobBERTjeはRobBERTに基づく蒸留オランダ語モデルセットのシャッフル版で、パラメータ数は74Mで、シャッフルされたOSCARコーパスを使用して訓練されています。
大規模言語モデル
Transformers その他

R
DTAI-KULeuven
508
0
Albert Base V1
Apache-2.0
ALBERTはTransformerアーキテクチャに基づく軽量級事前学習言語モデルで、自己教師付き学習により英語テキストで学習され、パラメータ共有の特性を持ち、メモリ使用量を削減します。
大規模言語モデル
Transformers 英語

A
albert
18.34k
11
Distilbert Base Uncased Distilled Clinc
Apache-2.0
DistilBERTに基づく軽量級テキスト分類モデルで、CLINC OOSデータセットで微調整され、意図識別タスクに使用されます。
テキスト分類
Transformers

D
MhF
17
0
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98