Language Detection
MIT
BERTベースの多言語検出モデルで、200言語のテキスト分類タスクをサポート
テキスト分類 複数言語対応
L
alexneakameni
1,210
1
M2 BERT 128 Retrieval Encoder V1
Apache-2.0
M2-BERT-128は論文『Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT』で提案された8000万パラメータの検索モデルチェックポイント
テキスト埋め込み
Transformers 英語

M
hazyresearch
19
3
Layoutlm Wikipedia Ja
これは日本語テキストを事前学習したLayoutLMモデルで、主に日本語文書のトークン分類タスクを処理するために使用されます。
大規模言語モデル
Transformers 日本語

L
jri-advtechlab
22
1
Environmentalbert Biodiversity
Apache-2.0
EnvironmentalBERT-baseを微調整した生物多様性テキスト分類モデルで、ESG/自然分野の生物多様性テキスト検出に特化
大規模言語モデル
Transformers 英語

E
ESGBERT
101
5
M2 Bert 80M 32k Retrieval
Apache-2.0
これは80MパラメータのM2-BERT事前学習モデルで、最大32768のシーケンス長をサポートし、長文コンテキスト検索タスクに最適化されています
テキスト埋め込み
Transformers 英語

M
togethercomputer
1,274
129
Ghisbert
MIT
GHisBERTはBERTアーキテクチャに基づくモデルで、歴史的ドイツ語データ向けにゼロから訓練され、ドイツ語の全ての文献化された発展段階を網羅しています。
大規模言語モデル
Transformers

G
christinbeck
37
4
Bert Addresses
BERTアーキテクチャに基づく固有表現認識モデル、人名、組織名、アメリカ住所情報のアノテーション専用
シーケンスラベリング
Transformers

B
ctrlbuzz
3,284
8
Luke Japanese Wordpiece Base
Apache-2.0
日本語BERTを改良したLUKEモデルで、日本語固有表現認識タスクに最適化されています
シーケンスラベリング
Transformers 日本語

L
uzabase
16
4
Econobert
Apache-2.0
EconoBertはbert-base-uncasedを経済学分野のデータセットでファインチューニングしたモデルで、経済学、政治学、金融学分野のNLPタスクに適しています。
大規模言語モデル
Transformers 英語

E
samchain
78
5
Geolm Base Toponym Recognition
GeoLMは、文から地名を検出するための言語モデルで、世界中のOpenStreetMap、WikiData、Wikipediaデータで事前学習され、GeoWebNewsデータセットでファインチューニングされています。
シーケンスラベリング
Transformers 英語

G
zekun-li
186
6
Simcse Indobert Base
IndoBERTベースのSimCSEモデル、インドネシア語文の意味的埋め込みベクトル生成用
テキスト埋め込み
Transformers その他

S
LazarusNLP
26
1
Indobertnews
MIT
indolem/indobert-base-uncasedをファインチューニングしたインドネシア語テキスト分類モデルで、評価セットでの精度は79.54%
大規模言語モデル
Transformers

I
mrizalf7
42
1
Ruscibert
Apache-2.0
Sber AIチームとモスクワ国立大学人工知能研究所MLSA研究室が共同で訓練したロシア語BERTモデルで、科学テキスト処理に特化
大規模言語モデル
Transformers その他

R
ai-forever
1,044
7
Vietnamese Address Embedding
これはsentence-transformersベースのモデルで、ベトナム語の住所文や段落を768次元の密なベクトル空間にマッピングでき、主に住所標準化タスクに使用されます。
テキスト埋め込み
Transformers

V
CaoHaiNam
58
0
Nezha Cn Base
哪吒(NEZHA)は中国語理解向けの神経コンテキスト化表現モデルで、Transformerアーキテクチャに基づき、Huawei Noah's Ark Labによって開発されました。
大規模言語モデル
Transformers

N
sijunhe
1,443
12
Bert Ancient Chinese
Apache-2.0
これはBERTアーキテクチャに基づく中国語事前学習言語モデルで、文語と現代中国語の処理をサポートします。
大規模言語モデル
Transformers 中国語

B
Jihuai
625
25
Sentece Embeddings BETO
sentence-transformersベースのスペイン語BERTモデルで、文や段落の768次元ベクトル表現を生成
テキスト埋め込み
Transformers

S
espejelomar
75
1
Arabertmo Base V10
AraBERTMoはGoogleのBERTアーキテクチャに基づくアラビア語事前学習言語モデルで、マスキングタスクをサポートします。
大規模言語モデル
Transformers

A
Ebtihal
39
0
Bert Medium Arabic
約82億語のアラビア語テキストリソースを基に訓練された事前学習済みのアラビア語BERT中型言語モデル
大規模言語モデル アラビア語
B
asafaya
66
0
Bert Base Ja
日本語ウィキペディアデータセットで学習されたBERTベースモデル、日本語テキストのマスク埋め込みタスクに適しています
大規模言語モデル
Transformers 日本語

B
colorfulscoop
16
1
Roberta Base
韓国語事前学習に基づくRoBERTaモデルで、様々な韓国語自然言語処理タスクに適用可能です。
大規模言語モデル
Transformers 韓国語

R
klue
1.2M
33
Klue Bert Base Aihub Mrc
KLUE BERT-baseをファインチューニングした韓国語機械読解モデル、AIHubデータセットで訓練
質問応答システム
Transformers 韓国語

K
bespin-global
29
1
Bert Base Chinese Ws
Gpl-3.0
繁体中国語のtransformersモデル及び自然言語処理ツールを提供
大規模言語モデル 中国語
B
ckiplab
48.37k
16
Muril Adapted Local
Apache-2.0
MuRILはGoogleが公開した17種類のインド言語とその転写版を事前学習したBERTモデルで、多言語表現をサポートしています。
大規模言語モデル 複数言語対応
M
monsoon-nlp
24
2
Rubert Base Cased Sentiment
RuBERTアーキテクチャに基づくロシア語短テキスト感情分類モデルで、中立、積極的、消極的の3つの感情分類をサポート
テキスト分類 その他
R
blanchefort
51.45k
16
Bert Base Arabertv01
BERTアーキテクチャに基づくアラビア語事前学習言語モデル、様々なアラビア語NLPタスクに対応
大規模言語モデル アラビア語
B
aubmindlab
293
2
Alephbert Base
Apache-2.0
現在最先端のヘブライ語言語モデル。BERTアーキテクチャに基づいています。
大規模言語モデル その他
A
onlplab
25.26k
18
Arabertmo Base V3
AraBERTMoはGoogleのBERTアーキテクチャに基づくアラビア語事前学習言語モデルで、マスキングタスクをサポートします。
大規模言語モデル
Transformers アラビア語

A
Ebtihal
15
0
Chinese Bigbird Base 4096
Apache-2.0
BigBirdアーキテクチャに基づく中国語事前学習モデル、4096長のコンテキスト処理をサポート
大規模言語モデル
Transformers 中国語

C
Lowin
48
3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98