Lvbert
BERTアーキテクチャに基づくラトビア語事前学習言語モデルで、様々な自然言語理解タスクに適しています
Downloads 473
Release Time : 3/10/2022
Model Overview
このモデルはマスク言語モデリングと次文予測目標を用いてラトビア語データで事前学習されており、テキスト分類、固有表現認識、質問応答などの下流タスクに適用可能です
Model Features
ラトビア語最適化
ラトビア語の特性に特化して事前学習と最適化を実施
大文字小文字区別
大文字小文字を区別する言語特徴を認識・処理可能
多様な訓練データ
ウィキペディア、ニュース記事、コメントなど多様なコーパスを使用して訓練
Model Capabilities
テキスト分類
固有表現認識
質問応答システム
テキスト類似度計算
意味検索
テキストクラスタリング
Use Cases
テキスト分析
ニュース分類
ラトビア語ニュース記事の自動分類
コメント感情分析
ラトビア語ユーザーコメントの感情傾向分析
情報抽出
固有表現認識
ラトビア語テキストから人名、地名、組織名を識別
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98