# 日本語テキスト処理

Jp ModernBERT Large Preview
MIT
Algomaticチームによって訓練された日本語BERTモデルで、マスキングタスクをサポートし、コンテキスト長は8192です。
大規模言語モデル 日本語
J
makiart
20
1
Sbert Jsnli Luke Japanese Base Lite
Apache-2.0
これはsentence-transformersに基づく日本語の文埋め込みモデルで、文や段落を768次元のベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み Transformers 日本語
S
oshizo
9,113
35
Fasttext Classification
fastText単語ベクトルに基づく実験的分類モデル、ゼロショット分類タスクをサポート
テキスト分類 Transformers 日本語
F
paulhindemith
49
0
Sentence Bert Base Ja Mean Tokens
これはBERTアーキテクチャに基づく日本語専用文埋め込みモデルで、文の意味ベクトル表現を生成し文類似度を計算します。
テキスト埋め込み 日本語
S
sonoisa
51.01k
9
Bert Base Japanese Char
日本語テキストで事前学習されたBERTモデルで、文字レベル分かち書き処理を採用し、日本語自然言語処理タスクに適しています。
大規模言語モデル 日本語
B
tohoku-nlp
116.10k
8
Ja Core News Lg
spaCyが提供するCPU向けに最適化された日本語処理パイプラインで、形態素解析、品詞タグ付け、依存構文解析、固有表現認識などの機能を備えています。
シーケンスラベリング 日本語
J
spacy
53
0
Bert Base Ja Cased
Apache-2.0
bert-base-multilingual-casedを基にした日本語特化の簡素化バージョンで、元の精度を維持
大規模言語モデル 日本語
B
Geotrend
13
0
Roberta Base Japanese Aozora
青空文庫のテキストを用いて事前学習された日本語RoBERTaモデルで、マスク言語モデリングタスクをサポートします。
大規模言語モデル Transformers 日本語
R
KoichiYasuoka
17
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase