Telugu Bertu
モデル概要
このモデルはテルグ語で訓練されたBERT MLMモデルで、主にテルグ語のテキストマスク予測タスクに使用されます。ウェブページのインターフェイスにはエンコーディングの問題があるため、ターミナルを通じてこのモデルを使用することをお勧めします。
モデル特徴
テルグ語対応
テルグ語に特化して訓練されたBERTモデルで、テルグ語のテキスト処理タスクに適しています。
マスク予測能力
テキスト中のマスクされた単語を予測でき、テキスト補完や言語理解タスクに適しています。
モデル能力
テキストマスク予測
テルグ語テキスト処理
使用事例
自然言語処理
テキスト補完
テキスト中のマスクされた単語を予測し、文章の補完タスクを完了します。
テルグ語のテキスト中のマスクされた単語を正確に予測できます。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98