# テキスト特徴抽出

Amber Base
Apache-2.0
Amber Base は modernbert-ja-130m を基にした日本語-英語文変換モデルで、文類似度計算と特徴抽出タスクに特化しています。
テキスト埋め込み 複数言語対応
A
retrieva-jp
213
3
Nomic Embed Text V2 Moe Unsupervised
これは多言語混合専門家(MoE)テキスト埋め込みモデルの中間バージョンで、多段階の対照学習によって得られました
テキスト埋め込み
N
nomic-ai
161
5
Context Skill Extraction Base
これはsentence-transformersで訓練されたモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、意味的テキスト類似度計算や意味検索など様々なタスクに適しています。
テキスト埋め込み
C
TechWolf
189
5
Snowflake Arctic Embed M V1.5
Apache-2.0
Snowflake Arctic Embed M v1.5は、文の類似度計算と特徴抽出タスクに特化した効率的な文埋め込みモデルです。
テキスト埋め込み
S
Snowflake
219.46k
58
Tybert
Apache-2.0
Trendyolによって事前学習されたトルコ語Bertモデルで、様々な自然言語理解タスクに適しています。
大規模言語モデル Transformers その他
T
Trendyol
54
6
Snowflake Arctic Embed M
Apache-2.0
Snowflake Arctic Embed M は文類似度タスクに特化した文変換モデルで、効率的にテキスト特徴を抽出し文間の類似度を計算できます。
テキスト埋め込み Transformers
S
Snowflake
722.08k
154
Bge Micro V2
bge_microはsentence-transformersベースの文埋め込みモデルで、文類似度計算と特徴抽出タスクに特化しています。
テキスト埋め込み Transformers
B
SmartComponents
468
2
St Polish Kartonberta Base Alpha V1
これはKartonBERTaアーキテクチャに基づくポーランド語の文変換モデルで、主に文の類似度計算と特徴抽出タスクに使用されます。
テキスト埋め込み Transformers その他
S
OrlikB
3,494
3
Labse En Ru Myv V2
これはLaBSEモデルに基づく多言語埋め込みモデルで、ロシア語とモクシャ語をサポートし、myv_ru_2022データセットでファインチューニングされています。
大規模言語モデル Transformers その他
L
slone
59
0
Bge Micro V2
MIT
bge_micro は文類似度計算に特化した軽量モデルで、様々な自然言語処理タスクに適しています。
テキスト埋め込み Transformers
B
TaylorAI
248.53k
46
Bge Micro
bge_micro は軽量な文類似度計算モデルで、トランスフォーマーアーキテクチャに基づき、効率的な特徴抽出と文類似度タスクのために設計されています。
テキスト埋め込み Transformers
B
TaylorAI
1,799
23
Star
STARは、ソーシャルメディアの執筆スタイル理解のための教師あり対照学習事前学習トランスフォーマーモデルです。
テキスト埋め込み Transformers
S
AIDA-UPM
186
2
Unsup Simcse Ja Base
これは教師なしSimCSE手法に基づく日本語文埋め込みモデルで、高品質な日本語文埋め込み表現を生成するために特別に設計されています。
テキスト埋め込み Transformers 日本語
U
cl-nagoya
190
2
Distilbert Base Uncased Becas 2
Apache-2.0
distilbert-base-uncasedをbecasv2データセットでファインチューニングしたモデル、検証損失は5.9506
大規模言語モデル Transformers
D
Evelyn18
16
0
Sbert Chinese General V1
Apache-2.0
文類似度計算と意味検索タスクのための汎用中国語文埋め込みモデル。
テキスト埋め込み Transformers 中国語
S
DMetaSoul
388
6
Distilbert Feature Extraction
DistilBERTはBERTの軽量級蒸留バージョンで、BERTの97%の性能を維持しながら、サイズを40%縮小しています。
大規模言語モデル Transformers
D
julien-c
2,223
2
Medium Base
Apache-2.0
英語コーパスで事前学習されたTransformerモデルで、ELECTRAに似た自己教師あり学習方式を採用し、置換されたトークンを予測することで訓練されます。
大規模言語モデル Transformers 英語
M
funnel-transformer
69
0
Small
Apache-2.0
英語コーパスで事前学習されたTransformerモデルで、ELECTRAに似た目的で学習され、テキスト特徴抽出と下流タスクの微調整に適しています。
大規模言語モデル Transformers 英語
S
funnel-transformer
6,084
5
Albert Base Chinese Cluecorpussmall
CLUECorpusSmallで事前学習された中国語ALBERTモデルで、UER-pyフレームワークでトレーニングされ、中国語テキスト処理タスクに適しています。
大規模言語モデル Transformers 中国語
A
uer
7,203
37
Intermediate
Apache-2.0
英語コーパスを用いて事前学習されたTransformerモデルで、ELECTRAに似た目標タスクを採用し、自己教師付き学習によりテキスト表現を獲得します。
大規模言語モデル Transformers 英語
I
funnel-transformer
24
0
Large
Apache-2.0
英語コーパスに基づいて事前学習されたTransformerモデルで、ELECTRAに類似した目的関数を採用し、自己教師付き方式で英語の内在的な表現を学習します。
大規模言語モデル Transformers 英語
L
funnel-transformer
190
2
Finetune Data Skills
Apache-2.0
bert-base-uncasedをベースに微調整されたデータスキルモデルで、特定のNLPタスクに適しています。
大規模言語モデル Transformers
F
dpasch01
26
0
Envibert
envibertはRoBERTaアーキテクチャに基づくバイリンガルモデルで、ベトナム語と英語の処理をサポートし、本番環境向けに最適化されています。
大規模言語モデル Transformers その他
E
nguyenvulebinh
84
5
Debertav2 Base Uncased
Apache-2.0
BERTはTransformerアーキテクチャに基づく事前訓練済み言語モデルで、マスク言語モデリングと次文予測タスクを通じて英語コーパスで訓練されています。
大規模言語モデル 英語
D
mlcorelib
21
0
Xlarge
Apache-2.0
Funnel Transformerは自己教師付き学習に基づく英語テキストの事前学習モデルで、ELECTRAに似た目標タスクを採用し、シーケンスの冗長性をフィルタリングすることで効率的な言語処理を実現します。
大規模言語モデル Transformers 英語
X
funnel-transformer
31
1
Chinese Roberta L 8 H 256
CLUECorpusSmallで事前学習された中国語RoBERTaモデルで、8層512隠れユニットのパラメータ規模を持ち、様々な中国語NLPタスクに適しています。
大規模言語モデル 中国語
C
uer
15
1
Bert Base Irish Cased V1
gaBERTはBERTベースのアイルランド語単言語モデルで、790万のアイルランド語の文章で学習され、アイルランド語の下流タスクの微調整に適しています。
大規模言語モデル Transformers
B
DCU-NLP
42
5
Gpt2 Large Bne
Apache-2.0
スペイン国立図書館(BNE)のデータを基に訓練されたGPT2 - largeのスペイン語言語モデル
大規模言語モデル Transformers スペイン語
G
PlanTL-GOB-ES
899
12
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase