# 中国語テキスト埋め込み

Conan Embedding V1 Q4 K M GGUF
Conan-embedding-v1はTencent BACチームによって開発された中国語テキスト埋め込みモデルで、中国語テキストの意味表現と類似度計算に特化しています。
テキスト埋め込み 中国語
C
KenLi315
48
2
Conan Embedding V1 Q4 K M GGUF
Conan-embedding-v1はTencent BACチームによって開発された中国語テキスト埋め込みモデルで、sentence-transformersライブラリをベースにしており、様々な中国語自然言語処理タスクに適しています。
テキスト埋め込み
C
lagoon999
30
7
Chuxin Embedding Q4 K M GGUF
これはChuxin-Embeddingから変換されたGGUF形式モデルで、主に中国語テキスト検索タスクに使用されます。
テキスト埋め込み 中国語
C
lagoon999
14
1
Bge Large Zh V1.5 Gguf
MIT
GGUF形式で提供されるBAAI/bge-large-zh-v1.5の量子化および非量子化埋め込みモデルで、llama.cppに適しており、CPU上で大幅な速度向上と極小の精度損失を実現します。
テキスト埋め込み
B
CompendiumLabs
1,213
12
Chinese Roberta L 4 H 512
これはRoBERTaアーキテクチャに基づく中国語事前学習言語モデルで、パラメータ規模は8層512隠れユニットであり、様々な中国語自然言語処理タスクに適しています。
大規模言語モデル 中国語
C
uer
873
11
Albert Large Chinese Cluecorpussmall
UER-pyフレームワークで事前学習された中国語ALBERTモデルで、CLUECorpusSmallコーパスで訓練されており、中国語テキスト処理タスクに適しています。
大規模言語モデル Transformers 中国語
A
uer
17
4
Chinese Roberta L 2 H 512
CLUECorpusSmallで事前学習された中国語RoBERTaモデルで、8層ネットワークと512次元の隠れ層を含み、さまざまな中国語NLPタスクに適しています。
大規模言語モデル 中国語
C
uer
37
1
Chinese Roberta L 6 H 768
CLUECorpusSmallで事前学習された中国語RoBERTa中型モデルで、8層ネットワークと512次元の隠れ層を持ち、様々な中国語NLPタスクに適しています。
大規模言語モデル 中国語
C
uer
222
2
Chinese Roberta L 12 H 768
RoBERTaアーキテクチャに基づく中国語事前学習言語モデル、隠れ層次元512、8層Transformer構造を含む
大規模言語モデル 中国語
C
uer
419
13
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase