# 日本語テキスト埋め込み

Plamo Embedding 1b
Apache-2.0
PLaMo-Embedding-1BはPreferred Networks社が開発した日本語テキスト埋め込みモデルで、日本語テキスト埋め込みベンチマークで優れた性能を発揮
テキスト埋め込み Transformers 日本語
P
pfnet
33.48k
25
Ruri V3 310m
Apache-2.0
Ruri v3はModernBERT-Jaを基に構築された汎用日本語テキスト埋め込みモデルで、日本語テキスト埋め込みタスクにおいて業界トップレベルの性能を実現し、最大8192トークンの長いシーケンスをサポートします。
テキスト埋め込み 日本語
R
cl-nagoya
3,395
21
Ruri V3 130m
Apache-2.0
Ruri v3 は ModernBERT-Ja をベースに構築された日本語汎用テキスト埋め込みモデルで、日本語テキスト埋め込みタスクにおいて最先端の性能を達成し、最大8192トークンの長いシーケンスをサポートします。
テキスト埋め込み 日本語
R
cl-nagoya
597
1
Ruri V3 70m
Apache-2.0
瑠璃v3はModernBERT-Jaを基に構築された日本語汎用テキスト埋め込みモデルで、最大8192トークンの長いシーケンスをサポートし、日本語テキスト埋め込みタスクで最先端の性能を達成しています。
テキスト埋め込み 日本語
R
cl-nagoya
865
1
Ruri V3 30m
Apache-2.0
Ruri v3はModernBERT-Jaを基に構築された日本語汎用テキスト埋め込みモデルで、最大8192トークンのシーケンス処理をサポートし、日本語テキスト埋め込みタスクでトップクラスの性能を発揮します。
テキスト埋め込み 日本語
R
cl-nagoya
1,135
3
Ruri V3 Pt 30m
Apache-2.0
RuriはModernBERT-Jaを基に構築された日本語汎用テキスト埋め込みモデルで、さまざまなパラメータサイズのバージョンを提供し、多様なテキスト処理タスクに適しています。
テキスト埋め込み Safetensors 日本語
R
cl-nagoya
250
1
Ruri Large V2
Apache-2.0
Ruriは日本語汎用テキスト埋め込みモデルで、文類似度計算と特徴抽出に特化し、長文処理をサポートしています。
テキスト埋め込み 日本語
R
cl-nagoya
3,672
9
Ruri Base V2
Apache-2.0
Ruriは日本語に最適化された汎用テキスト埋め込みモデルで、Sentence Transformersアーキテクチャに基づき、文の類似度計算や特徴抽出タスクに特化して設計されています。
テキスト埋め込み 日本語
R
cl-nagoya
12.77k
4
Ruri Small V2
Apache-2.0
瑠璃は日本語汎用テキスト埋め込みモデルで、文類似度計算と特徴抽出に特化しており、cl-nagoya/ruri-pt-small-v2ベースモデルでトレーニングされています。
テキスト埋め込み 日本語
R
cl-nagoya
55.95k
4
Sarashina Embedding V1 1b
12億パラメータの日本語大規模言語モデルを基に開発されたテキスト埋め込みモデルで、JMTEBベンチマークで優れた性能を発揮
テキスト埋め込み Transformers 複数言語対応
S
sbintuitions
23.85k
31
Ruri Large
Apache-2.0
Ruri-Largeは日本語テキストの類似度計算に特化した高性能埋め込みモデルで、transformerアーキテクチャを基盤とし、長文処理(最大長8192)をサポートしています。
テキスト埋め込み Safetensors 日本語
R
cl-nagoya
6,784
41
Ruri Small
Apache-2.0
Ruriは日本語テキスト埋め込みに特化したモデルで、文の類似度計算やテキスト特徴抽出を効率的に行えます。
テキスト埋め込み 日本語
R
cl-nagoya
11.75k
9
Ruri Base
Apache-2.0
Ruriは日本語に特化した汎用テキスト埋め込みモデルで、文の類似度計算と特徴抽出タスクに焦点を当てています。
テキスト埋め込み Safetensors 日本語
R
cl-nagoya
523.56k
9
Glucose Base Ja
Apache-2.0
GLuCoSEはLUKEをベースにした日本語テキスト埋め込みモデルで、文の類似度や意味検索タスクに適しています。
テキスト埋め込み Transformers 日本語
G
pkshatech
70.71k
32
Bert Base Ja
日本語ウィキペディアデータセットで学習されたBERTベースモデル、日本語テキストのマスク埋め込みタスクに適しています
大規模言語モデル Transformers 日本語
B
colorfulscoop
16
1
Sentence Bert Base Ja Mean Tokens V2
これは日本語専用のSentence-BERTモデルで、バージョン1と比べてより優れた損失関数を使用して訓練されており、精度が1.5~2ポイント向上しています。
テキスト埋め込み 日本語
S
sonoisa
108.15k
42
Roberta Large Japanese Aozora
青空文庫テキストで事前学習されたRoBERTa大型日本語モデル、下流タスクのファインチューニングに対応
大規模言語モデル Transformers 日本語
R
KoichiYasuoka
17
2
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase