Xlm Roberta Base Language Detection Tfjs
MIT
これはXLM-RoBERTaベースの多言語検出モデルで、20言語の識別をサポートしています。
テキスト分類 複数言語対応
X
dnouv
14
1
Multilingual E5 Language Detection
Apache-2.0
45言語に対応した検出モデル、multilingual-e5-baseをファインチューニング、精度98.37%
テキスト分類
Transformers 複数言語対応

M
Mike0307
570
11
Xlm Roberta Base Language Detection ONNX
XLM-RoBERTaを基にした多言語検出モデルで、テキストの言語カテゴリを識別できます。
テキスト分類
Transformers

X
Oblix
16
1
Xlm Roberta Base Language Detection Onnx
MIT
これはpapluca/xlm-roberta-base-language-detectionモデルのONNX形式変換バージョンで、多言語テキスト分類タスクに使用され、20言語の検出をサポートします。
テキスト分類
Transformers 複数言語対応

X
protectai
6,535
6
Language Detection Fine Tuned On Xlm Roberta Base
MIT
このモデルは汎用言語データセットでxlm-roberta-baseをファインチューニングしたバージョンで、テキスト分類タスク、特に言語検出に使用されます。
テキスト分類
Transformers

L
ivanlau
13.37k
16
Xlm Roberta Base Language Detection
MIT
XLM-RoBERTaベースの多言語検出モデル、20言語のテキスト分類をサポート
テキスト分類
Transformers 複数言語対応

X
papluca
2.7M
333
Zabanshenas Roberta Base Mix
Apache-2.0
Zabanshenasは、Transformerベースのソリューションで、書面文書/テキストの最も可能性の高い言語を識別するために使用されます。
テキスト分類
Transformers 複数言語対応

Z
m3hrdadfi
23
10
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98