Mbert Multiconer22 Bn
M
Mbert Multiconer22 Bn
Developed by sumitrsch
このモデルはベンガル語トラックのSemEval Multiconerタスクを処理するために使用され、固有表現認識(NER)などの自然言語処理タスクに焦点を当てています。
Downloads 39
Release Time : 7/6/2022
Model Overview
これはベンガル語向けに設計された固有表現認識モデルで、SemEval Multiconerコンペティションタスク用であり、テキスト内の様々な固有表現を識別できます。
Model Features
ベンガル語サポート
ベンガル語に特化して最適化された固有表現認識能力
コンペティション最適化
SemEval Multiconerコンペティションタスク向けに特別に設計・調整
Model Capabilities
固有表現認識
テキスト分析
ベンガル語処理
Use Cases
学術研究
SemEvalコンペティション
SemEval Multiconerコンペティションのベンガル語トラックに参加
商業応用
ベンガル語テキスト分析
ベンガル語テキストの固有表現認識タスク処理に使用
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98