# BERTアーキテクチャ

Gobert
MIT
GoBERTは、一般的な遺伝子機能予測に特化したモデルで、遺伝子本体グラフ情報を利用して、遺伝子本体(GO)機能間の関係を効果的に捉えることができます。
タンパク質モデル Safetensors
G
MM-YY-WW
479
1
Modernbert Ai Detection
Apache-2.0
ModernBERT-baseアーキテクチャに基づく機械生成テキスト検出モデルで、言語モデルの崩壊を防止するために使用されます
テキスト分類 Safetensors 英語
M
GeorgeDrayson
16
1
Morphbert Large Morpheme Segmentation Ru
Apache-2.0
Transformerアーキテクチャに基づく大規模ロシア語形態素分割モデルで、ロシア語単語の各文字を25種類の形態素カテゴリのいずれかに分類可能
シーケンスラベリング Transformers その他
M
CrabInHoney
16
1
Log Classifier BERT V1
BERTForSequenceClassificationフレームワークでトレーニングされたtransformers分類モデルで、ネットワークとデバイスのログマイニングタスク向けに設計されています
テキスト分類 Transformers 英語
L
rahulm-selector
25
2
Burmesebert
ビルマ語-BERTはbert-large-uncasedをベースにしたバイリンガルマスク言語モデルで、英語とビルマ語をサポートしています。
大規模言語モデル Transformers 複数言語対応
B
jojo-ai-mst
20
2
M2 BERT 8k Retrieval Encoder V1
Apache-2.0
M2-BERT-8Kは8000万パラメータの長文検索モデルで、論文『Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT』で提案されたアーキテクチャに基づいています。
大規模言語モデル Transformers 英語
M
hazyresearch
52
4
Cubert 20210711 Python 1024
Apache-2.0
CuBERTはPythonコードに基づくコンテキスト埋め込みモデルで、ソースコード分析タスク専用に設計されています。
大規模言語モデル Transformers その他
C
claudios
22
1
Gte Large Gguf
MIT
汎用テキスト埋め込み(GTE)モデルのGGUFフォーマット版で、情報検索や意味的テキスト類似性などのタスクに適しています。
テキスト埋め込み 英語
G
ChristianAzinn
184
1
Beto Sentiment Analysis Spanish
BETO(スペイン語版BERT)に基づいて構築された感情分析モデルで、スペイン語テキストの感情分類をサポートします。
テキスト分類 Transformers スペイン語
B
ignacio-ave
1,708
6
Augment Sentiment Finnlp Th
WangchanBERTaをファインチューニングしたタイ語感情分析モデルで、評価セットで74.15%の精度を達成
大規模言語モデル Transformers
A
nlp-chula
68
3
Dictabert
現代ヘブライ語の最先端BERT言語モデルスイート
大規模言語モデル Transformers その他
D
dicta-il
50.83k
8
Turkish Base Bert Uncased
これはトルコ語用の基礎版BERTモデルで、大文字小文字を区別せず、主にマスク埋めタスクに使用されます。
大規模言語モデル Transformers その他
T
ytu-ce-cosmos
241
16
Erya4ft
Apache-2.0
Erya4FTはEryaモデルを基にさらに微調整した文言文翻訳モデルで、文言文を現代中国語に翻訳することに特化しています。
機械翻訳 Transformers 中国語
E
RUCAIBox
13
4
Zero Shot Explicit Binary Bert
MIT
BERTアーキテクチャに基づくゼロショットテキスト分類モデルで、明示的訓練戦略を用いてUTCDデータセット上で二元分類訓練を行う
テキスト分類 Transformers 英語
Z
claritylab
23
0
Evaluation Xlm Roberta Model
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み Transformers
E
loutchy
22
0
Latinbert
LatinBERTはBERTアーキテクチャに基づくラテン語事前学習言語モデルです
大規模言語モデル Transformers
L
pnadel
23
1
Rubert Tiny Bviolet
これはsentence-transformersに基づく文埋め込みモデルで、テキストを312次元ベクトル空間にマッピングでき、意味検索やテキスト類似度計算などのタスクに適しています。
テキスト埋め込み Transformers
R
pouxie
46
2
My Awesome Qa Model
Apache-2.0
bert-base-multilingual-casedを基にSQuADデータセットでファインチューニングしたQAモデル
質問応答システム Transformers
M
vnktrmnb
14
0
Tamil Bert
公開利用可能なタミル語単一言語データセットで訓練されたBERTモデルで、タミル語の自然言語処理タスクに適しています。
大規模言語モデル Transformers その他
T
l3cube-pune
331
3
Setfit Model
これはsentence-transformersに基づくモデルで、文や段落を768次元のベクトル空間にマッピングし、文の類似度計算や意味検索タスクに使用できます。
テキスト埋め込み Transformers
S
rajistics
18
1
Setfit ST ICD10 L3
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み Transformers
S
rjac
14
0
Banglabert Finetuned Squad
このモデルはベンガル語SQuADデータセットでBanglaBERTをファインチューニングしたバージョンで、QAタスク用です
質問応答システム Transformers
B
Naimul
15
0
Rubert Large Squad 2
MIT
sberbank-ai/ruBert-baseで訓練されたロシア語Q&Aモデル、読解タスクに適応
質問応答システム Transformers
R
Den4ikAI
271
4
Qqp Nli Training Paraphrase Multilingual MiniLM L12 V2
これはsentence-transformersベースの文類似度モデルで、テキストを384次元ベクトル空間にマッピングし、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み Transformers
Q
TingChenChang
13
0
Bert Base Han Chinese Ws
Gpl-3.0
このモデルは古代中国語の分かち書き機能を提供し、トレーニングデータセットは中国語発展の4つの歴史的時期をカバーしています。
シーケンスラベリング Transformers 中国語
B
ckiplab
14
2
Bert Base Han Chinese Pos
Gpl-3.0
このモデルは古代中国語の品詞タグ付け機能を提供し、訓練データセットは中国語発展の4つの歴史時期をカバーしています。
シーケンスラベリング Transformers 中国語
B
ckiplab
20
1
Bpr Gpl Robust04 Base Msmarco Distilbert Tas B
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み Transformers
B
income
27
0
Bert Fc Base
BERTアーキテクチャに基づく言語モデルで、先頭文字予測を事前学習の目標として採用
大規模言語モデル Transformers
B
aajrami
15
0
Bert4ner Base Chinese
Apache-2.0
BERTベースの中国語固有表現認識モデルで、人民日報データセットでほぼ最先端のレベルに達しています
シーケンスラベリング Transformers 複数言語対応
B
shibing624
439
31
Bert Base Buddhist Sanskrit
BERTアーキテクチャに基づく仏教サンスクリットマスク言語モデルで、仏教サンスクリットテキスト処理専用に設計されています
大規模言語モデル Transformers
B
Matej
31
3
Bert Base NER
MIT
BERT-baseをベースとした固有表現抽出モデルで、場所、組織、人名などの4種類のエンティティを識別可能
シーケンスラベリング Transformers 英語
B
optimum
69
2
Trec News Distilbert Tas B Gpl Self Miner
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み Transformers
T
GPL
29
0
Bert Base Russian Upos
UD_Russianで事前学習されたBERTモデル、ロシア語の品詞タグ付けと依存構文解析用
シーケンスラベリング Transformers その他
B
KoichiYasuoka
87
4
Guwen Sent
Apache-2.0
BERTアーキテクチャに基づく古典詩詞の感情分類器で、古文の感情傾向を分析するために特別に設計されています。
テキスト分類 Transformers 中国語
G
ethanyt
20
4
Biomednlp PubMedBERT Base Uncased Abstract Fulltext Finetuned Pubmedqa 1
MIT
PubMedBERTを基に生物医学テキストでファインチューニングされたQAモデルで、PubMedQAタスクに特化
質問応答システム Transformers
B
blizrys
31
0
Model Dccuchile Bert Base Spanish Wwm Uncased 1 Epochs
これはsentence-transformersに基づく文埋め込みモデルで、テキストを256次元のベクトル空間にマッピングでき、意味的検索やクラスタリングタスクに適しています。
テキスト埋め込み
M
jfarray
8
0
Bert Base Multilingual Xquad
bert-base-multilingual-uncasedに基づく多言語質問応答モデルで、XQuADデータセットで微調整されました。
質問応答システム Transformers その他
B
alon-albalak
24
0
Rubert Base Cased Nli Threeway
DeepPavlov/rubert-base-casedをファインチューニングしたロシア語自然言語推論モデルで、2つのテキスト間の論理関係(含意/矛盾/中立)を予測可能
テキスト分類 Transformers その他
R
cointegrated
144.68k
34
Model Paraphrase Multilingual MiniLM L12 V2 10 Epochs
これはsentence-transformersベースのモデルで、文や段落を384次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み Transformers
M
jfarray
11
0
Bert Base Arabic
現代標準アラビア語と一部の方言をサポートする事前学習済みアラビア語BERTベース言語モデル
大規模言語モデル アラビア語
B
asafaya
14.40k
38
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase