ERNIE 4.5 0.3B PT Bf16
Apache-2.0
ERNIE-4.5-0.3B-PT-bf16は百度が開発したERNIEシリーズのモデルの一つで、パラメータ規模は0.3Bで、bf16精度で学習されています。
大規模言語モデル 複数言語対応
E
mlx-community
214
1
Chinesebert Base
ChineseBERTは漢字の字形とピンイン情報を融合させた中国語事前学習モデルで、中国語テキスト処理に最適化されています。
大規模言語モデル
Transformers 中国語

C
iioSnail
118
7
Rbt4 H312
Apache-2.0
MiniRBTは知識蒸留技術に基づいて開発された中国語小型事前学習モデルで、全単語マスキング技術を用いて学習効率を最適化しています。
大規模言語モデル
Transformers 中国語

R
hfl
34
5
Minirbt H288
Apache-2.0
MiniRBTは知識蒸留技術に基づいて開発された中国語小型事前学習モデルで、全単語マスキング技術を用いて学習効率を最適化しています。
大規模言語モデル
Transformers 中国語

M
hfl
405
8
Minirbt H256
Apache-2.0
MiniRBTは知識蒸留技術に基づく中国語小型事前学習モデルで、全単語マスキング技術を組み合わせ、様々な中国語自然言語処理タスクに適しています。
大規模言語モデル
Transformers 中国語

M
hfl
225
7
Chinese Lert Small
Apache-2.0
LERTは言語学理論に基づいて開発された事前学習言語モデルで、言語学的知識を通じてモデルの性能を向上させることを目的としています。
大規模言語モデル
Transformers 中国語

C
hfl
538
12
Structbert Large Zh
StructBERTは言語構造を事前学習プロセスに組み込むことでBERTを拡張した新しいモデルで、2つの補助タスクを通じて単語と文の順序構造を最大限に活用します
大規模言語モデル
Transformers 中国語

S
junnyu
77
8
Chinese Bert Wwm Finetuned Jd
Apache-2.0
このモデルはhfl/chinese-bert-wwmを未知のデータセットでファインチューニングしたバージョンで、中国語テキスト処理タスクに適しています。
大規模言語モデル
Transformers

C
wangmiaobeng
24
0
Roberta Tiny Word Chinese Cluecorpussmall
CLUECorpusSmallを用いて事前学習された中国語形態素解析版RoBERTa中型モデルで、8層512隠れ層のアーキテクチャを採用し、文字版モデルに比べて性能が優れ、処理速度が速い。
大規模言語モデル 中国語
R
uer
17
3
Chinese Pert Large
PERTはBERTベースの中国語事前学習言語モデルで、中国語テキスト処理能力の向上に焦点を当てています。
大規模言語モデル
Transformers 中国語

C
hfl
1,968
10
Chinese Legal Electra Base Generator
Apache-2.0
中国語ELECTRAは、グーグルのELECTRAモデルに基づく中国語事前学習モデルで、ハルビン工業大学と科大訊飛の共同研究室によって発表されました。構造がコンパクトで、性能が優れているという特徴があります。
大規模言語モデル
Transformers 中国語

C
hfl
18
6
T5 Small Chinese Cluecorpussmall
UER-pyフレームワークで事前学習された中国語T5小型モデルで、統一されたテキストからテキストへのフォーマットで様々な中国語NLPタスクを処理
大規模言語モデル 中国語
T
uer
1,336
19
Chinese Electra Small Generator
Apache-2.0
中国語ELECTRAは哈工大-讯飞共同研究所がGoogleのELECTRAアーキテクチャに基づいて開発した中国語事前学習モデルで、パラメータ数はBERTの1/10ですが性能は同等です。
大規模言語モデル
Transformers 中国語

C
hfl
16
0
Chinese Roberta L 6 H 512
UER-pyで事前学習された中国語RoBERTaモデルシリーズの中型バージョンで、CLUECorpusSmallコーパスでトレーニングされ、さまざまな中国語NLPタスクに適しています。
大規模言語モデル 中国語
C
uer
19
0
Chinese Roberta L 8 H 256
CLUECorpusSmallで事前学習された中国語RoBERTaモデルで、8層512隠れユニットのパラメータ規模を持ち、様々な中国語NLPタスクに適しています。
大規模言語モデル 中国語
C
uer
15
1
Roberta Base Word Chinese Cluecorpussmall
CLUECorpusSmallコーパスを用いて事前学習された中国語形態素解析版RoBERTa中型モデルで、形態素解析を用いてシーケンス処理の効率を向上させます。
大規模言語モデル 中国語
R
uer
184
9
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98