Uie Base
Apache-2.0
UIEは統一的な情報抽出フレームワークで、エンティティ認識、関係抽出、イベント検出、感情分析など多様なタスクを処理でき、タスク間転移と汎化能力を備えています。
知識グラフ
Transformers 中国語

U
xusenlin
225
25
Chinese Lert Large
Apache-2.0
LERTは言語学理論に基づく事前学習言語モデルで、言語学知識を活用してモデル性能を向上させることを目的としています。
大規模言語モデル
Transformers 中国語

C
hfl
197
15
Randeng T5 Char 57M MultiTask Chinese
Apache-2.0
文字レベルT5アーキテクチャに基づく中国語マルチタスクモデルで、100以上の中国語データセットで微調整され、分類、推論、生成タスクをサポートします。
大規模言語モデル
Transformers 中国語

R
IDEA-CCNL
35
8
Autonlp NLPIsFun 251844
これはAutoNLPでトレーニングされた二値分類モデルで、自然言語処理タスクを処理するために使用されます。
テキスト分類
Transformers 英語

A
m3tafl0ps
16
0
Tinybert L 4 H 312 V2
TinyBERTは華為技術(ファーウェイ)のNoah's Ark Labが開発した軽量BERTモデルで、知識蒸留技術を用いてモデルサイズを圧縮しながら高い性能を維持しています。
大規模言語モデル
T
nreimers
5,166
1
Autonlp Shipping Status 2 27366103
これはAutoNLPを基に訓練された二元分類モデルで、物流状態分類タスクに特化しています。
テキスト分類
Transformers その他

A
jwuthri
15
0
Roberta Base Wechsel Chinese
MIT
WECHSEL手法で訓練されたRoBERTa中国語モデル。英語から中国語への効率的な言語間移行を実現します。
大規模言語モデル
Transformers 中国語

R
benjamin
16
2
Chinese Electra Large Generator
Apache-2.0
中国語ELECTRAは、哈工大-讯飞共同研究所がGoogleのELECTRAモデルを基に開発した中国語事前学習モデルで、パラメータ数が少ないにもかかわらず優れた性能を発揮します。
大規模言語モデル
Transformers 中国語

C
hfl
14
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98