Jp ModernBERT Large Preview
MIT
Algomaticチームによって訓練された日本語BERTモデルで、マスキングタスクをサポートし、コンテキスト長は8192です。
大規模言語モデル 日本語
J
makiart
20
1
Sbert Jsnli Luke Japanese Base Lite
Apache-2.0
これはsentence-transformersに基づく日本語の文埋め込みモデルで、文や段落を768次元のベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers 日本語

S
oshizo
9,113
35
Fasttext Classification
fastText単語ベクトルに基づく実験的分類モデル、ゼロショット分類タスクをサポート
テキスト分類
Transformers 日本語

F
paulhindemith
49
0
Sentence Bert Base Ja Mean Tokens
これはBERTアーキテクチャに基づく日本語専用文埋め込みモデルで、文の意味ベクトル表現を生成し文類似度を計算します。
テキスト埋め込み 日本語
S
sonoisa
51.01k
9
Bert Base Japanese Char
日本語テキストで事前学習されたBERTモデルで、文字レベル分かち書き処理を採用し、日本語自然言語処理タスクに適しています。
大規模言語モデル 日本語
B
tohoku-nlp
116.10k
8
Ja Core News Lg
spaCyが提供するCPU向けに最適化された日本語処理パイプラインで、形態素解析、品詞タグ付け、依存構文解析、固有表現認識などの機能を備えています。
シーケンスラベリング 日本語
J
spacy
53
0
Bert Base Ja Cased
Apache-2.0
bert-base-multilingual-casedを基にした日本語特化の簡素化バージョンで、元の精度を維持
大規模言語モデル 日本語
B
Geotrend
13
0
Roberta Base Japanese Aozora
青空文庫のテキストを用いて事前学習された日本語RoBERTaモデルで、マスク言語モデリングタスクをサポートします。
大規模言語モデル
Transformers 日本語

R
KoichiYasuoka
17
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98