Distilbert Base En Zh Cased
これはdistilbert-base-multilingual-casedの小型版で、英語と中国語のバイリンガルタスクを専門に処理し、元のモデルの精度を維持しています。
Downloads 29
Release Time : 3/2/2022
Model Overview
このモデルはDistilBERTアーキテクチャに基づくバイリンガル(英語と中国語)の事前学習モデルで、元の多言語モデルの軽量版で、バイリンガルタスクを効率的に処理する必要があるシーンに適しています。
Model Features
バイリンガルサポート
英語と中国語のバイリンガルタスクを処理するために特別に最適化されています
軽量かつ効率的
元の多言語モデルと比較して、サイズが小さいが同じ精度を維持しています
元のモデルと互換性がある
生成される表現は元のdistilbert-base-multilingual-casedモデルと完全に同じです
Model Capabilities
テキスト理解
テキスト分類
固有表現認識
質問応答システム
Use Cases
言語間アプリケーション
英中機械翻訳支援
英中機械翻訳システムの品質向上に使用
バイリンガルコンテンツ分析
英語と中国語を同時に含むドキュメントの内容を分析
教育技術
言語学習アプリケーション
英中バイリンガル学習ツールの開発に使用
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98