The Teacher V 2
これはゼロショット分類タスクに使用されるtransformersモデルで、大量のラベル付きデータを必要とせずにテキストを分類できます。
テキスト分類
Transformers

T
shiviklabs
172
0
Persian Question Generator
Apache-2.0
これはmT5モデルを微調整したペルシア語質問生成モデルで、ペルシア語のテキストから関連する質問を生成することができます。
質問応答システム
Transformers その他

P
myrkur
57
1
Wasmai 7b V1
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途についてはさらに情報を追加する必要があります。
大規模言語モデル
Transformers

W
wasmdashai
133
1
Moritzlaurer Roberta Base Zeroshot V2.0 C Onnx
Apache-2.0
これはMoritzLaurer/roberta-base-zeroshot-v2.0-cモデルのONNX形式変換バージョンで、ゼロショット分類タスクに適しています。
テキスト分類
Transformers

M
protectai
14.94k
0
Norbert3 Xs
Apache-2.0
NorBERT 3 xsはノルウェー語に最適化されたBERTモデルで、次世代NorBERT言語モデルシリーズの最小バージョンであり、パラメータ数は15Mです。
大規模言語モデル
Transformers その他

N
ltg
228
4
Spanbert Qa
SpanBERT/spanbert-base-casedをファインチューニングした質問応答モデルで、読解タスクに適しています
質問応答システム
Transformers

S
vaibhav9
24
0
Rbt4 H312
Apache-2.0
MiniRBTは知識蒸留技術に基づいて開発された中国語小型事前学習モデルで、全単語マスキング技術を用いて学習効率を最適化しています。
大規模言語モデル
Transformers 中国語

R
hfl
34
5
Minirbt H288
Apache-2.0
MiniRBTは知識蒸留技術に基づいて開発された中国語小型事前学習モデルで、全単語マスキング技術を用いて学習効率を最適化しています。
大規模言語モデル
Transformers 中国語

M
hfl
405
8
Minirbt H256
Apache-2.0
MiniRBTは知識蒸留技術に基づく中国語小型事前学習モデルで、全単語マスキング技術を組み合わせ、様々な中国語自然言語処理タスクに適しています。
大規模言語モデル
Transformers 中国語

M
hfl
225
7
Bert Ascii Medium
中規模のBERT言語モデルで、マスクされたトークン内の文字のASCIIコード値の合計を予測することを事前学習の目標として訓練されています。
大規模言語モデル
Transformers

B
aajrami
24
0
Rubert Tiny Squad
MIT
cointegrated/rubert-tiny2をファインチューニングしたロシア語Q&Aモデル、SQuAD形式の質問応答タスクに適応
質問応答システム
Transformers

R
Den4ikAI
32
0
Distilbert Base Uncased Combined Squad Adversarial
Apache-2.0
このモデルはdistilbert-base-uncasedをSQuADの敵対的データセットでファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム
Transformers

D
stevemobs
15
0
Opt 6.7b
その他
OPTはMeta AIが開発したオープンプリトレーニングTransformer言語モデルで、6.7Bのパラメータを含み、大規模言語モデル研究を促進することを目的としています。
大規模言語モデル 英語
O
facebook
72.30k
116
Distilbert Base Uncased Finetuned Squad
Apache-2.0
蒸留BERTベース版を質問応答データセットで微調整したモデルで、質問応答タスクに適しています
質問応答システム
Transformers

D
jhoonk
15
0
Simpledataset
Apache-2.0
distilroberta-baseをファインチューニングしたモデル、具体的な用途とトレーニングデータは明記されていません
大規模言語モデル
Transformers

S
DioLiu
174
0
Erlangshen Roberta 110M Sentiment
Apache-2.0
中国語RoBERTa-wwm-ext-baseモデルをベースに、複数の感情分析データセットでファインチューニングされたバージョン
テキスト分類
Transformers 中国語

E
IDEA-CCNL
16.19k
70
Ambert
MIT
Robertaアーキテクチャでトレーニングされたアムハラ語言語モデルで、さまざまな自然言語処理タスクに適しています。
大規模言語モデル
Transformers

A
surafelkindu
57
1
Tapt Nbme Deberta V3 Base
MIT
microsoft/deberta-v3-baseをファインチューニングしたモデルで、評価セットでの精度は75.76%
大規模言語モデル
Transformers

T
ZZ99
15
0
Distilroberta Base 1
Apache-2.0
distilroberta-baseモデルをファインチューニングしたバージョンで、テキスト関連タスクに適しています
大規模言語モデル
Transformers

D
uhlenbeckmew
56
0
Bert Base Uncased Wiki Scouting
Apache-2.0
bert-base-uncased-wikiをベースにファインチューニングされたモデル、具体的なタスクは明記されていません
大規模言語モデル
Transformers

B
amanm27
38
0
Distilbert Base Uncased Squad2 With Ner With Neg With Repeat
distilbert-base-uncased-squad2をconll2003データセットでファインチューニングした質問応答と固有表現認識モデル
質問応答システム
Transformers

D
andi611
20
0
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98
Roberta Base
韓国語事前学習に基づくRoBERTaモデルで、様々な韓国語自然言語処理タスクに適用可能です。
大規模言語モデル
Transformers 韓国語

R
klue
1.2M
33
Bert Base Uncased Finetuned Docvqa
Apache-2.0
ドキュメント視覚的質問応答(DocVQA)タスクでBERTベースモデルをファインチューニングしたモデル
質問応答システム
Transformers

B
tiennvcs
60
1
Chinese Xlnet Base
Apache-2.0
中国語向けのXLNet事前学習モデルで、中国語自然言語処理リソースを充実させ、多様な中国語事前学習モデルの選択肢を提供することを目的としています。
大規模言語モデル
Transformers 中国語

C
hfl
1,149
31
Qa Roberta Base Chinese Extractive
これは中国語コーパスでファインチューニングされたRoBERTa-Base Q&Aモデルで、抽出型Q&Aタスクに適しています。
質問応答システム
Transformers 中国語

Q
liam168
34
9
Mt5 Base Chinese Qg
これはMT5アーキテクチャに基づく中国語質問生成モデルで、与えられた中国語テキストから自動的に関連する質問を生成することができます。
質問応答システム
Transformers

M
algolet
103
17
Ltrc Roberta
これは880万のテルグ語文で学習したRoBERTaモデルで、テルグ語の自然言語処理タスクに特化して最適化されています。
大規模言語モデル
Transformers

L
ltrctelugu
52
0
Distilkobert
Apache-2.0
DistilKoBERTは韓国語BERTモデルの軽量版で、知識蒸留技術により元のモデルを圧縮し、大部分の性能を維持しながら計算リソースの需要を削減します。
大規模言語モデル
Transformers 韓国語

D
monologg
17.02k
5
Chinese Bert Wwm
Apache-2.0
全単語マスキング戦略を採用した中国語事前学習BERTモデルで、中国語自然言語処理研究を加速することを目的としています。
大規模言語モデル 中国語
C
hfl
28.52k
79
Bert Base Uncased Finetuned QnA V1
Apache-2.0
bert-base-uncasedモデルをファインチューニングした質問応答システムバージョンで、英語の質問応答タスクに適しています
質問応答システム
Transformers

B
mujerry
23
0
Mt5 Small Jaquad Qg Ae
MT5-smallをファインチューニングした日本語の質問生成と回答抽出モデルで、与えられたテキストから質問を生成したり回答を抽出したりできます。
質問応答システム
Transformers 日本語

M
lmqg
143
1
Chinese Pert Base
PERTはBERTに基づく中国語の事前学習モデルで、中国語のテキスト処理能力の向上に特化しています。
大規模言語モデル
Transformers 中国語

C
hfl
131
13
T5 End2end Question Generation
Apache-2.0
T5-baseをファインチューニングしたエンドツーエンドの問題生成モデルで、与えられたコンテキストから自動的に関連する質問を生成できます。
質問応答システム
Transformers

T
ThomasSimonini
386
15
Albert Base V2 Finetuned Squad
Apache-2.0
albert-base-v2モデルを質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに適しています
質問応答システム
Transformers

A
knlu1016
16
0
Mt5 Small Jaquad Qg
これはgoogle/mt5-smallをファインチューニングした日本語問題生成モデルで、与えられたテキストから関連する質問を生成するために特別に設計されています。
質問応答システム
Transformers 日本語

M
lmqg
209
2
T5 Small Squad Qg Ae
T5-smallをベースに微調整された英文質問生成と回答抽出モデルで、テキストから質問を生成したり回答を抽出するのに適しています。
質問応答システム
Transformers 英語

T
lmqg
685
0
Distilbert Base Uncased
Apache-2.0
DistilBERTはBERT基礎モデルの蒸留バージョンで、同等の性能を維持しながら、より軽量で高効率です。シーケンス分類、タグ分類などの自然言語処理タスクに適しています。
大規模言語モデル 英語
D
distilbert
11.1M
669
Distilbert Base Pt Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの小型版で、ポルトガル語を専門に処理し、元のモデルの精度を維持しています。
大規模言語モデル
Transformers その他

D
Geotrend
46
2
Robbertje 1 Gb Bort
MIT
RobBERTjeはRobBERTをベースとした一連の蒸留オランダ語BERTモデルで、さまざまなサイズとトレーニング設定のモデルを提供します。
大規模言語モデル
Transformers その他

R
DTAI-KULeuven
63
0
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98