T

Tahrirchi Bert Base

tahrirchiによって開発
TahrirchiBERT-baseはウズベク語(ラテン文字)のエンコーダー専用Transformerテキストモデルで、1.1億のパラメータを持ち、マスク言語モデリング目標で事前学習されています。
ダウンロード数 88
リリース時間 : 10/26/2023

モデル概要

このモデルはウズベク語で事前学習されており、シーケンス分類、トークン分類、質問応答など、文全体の判断が必要なタスクのファインチューニングに適しています。

モデル特徴

ウズベク語専用
ウズベク語(ラテン文字)に特化して最適化・訓練されており、ウズベク語テキストの理解と生成に優れています。
大文字小文字の区別
モデルは大文字小文字を区別し、異なるケースのテキスト入力を認識・処理できます。
大規模事前学習データ
約4000冊の前処理済み書籍と120万件の精選されたウェブ・Telegramブログテキスト(50億トークン相当)を使用して事前学習されています。

モデル能力

マスク埋め
シーケンス分類
トークン分類
質問応答

使用事例

テキスト処理
ウズベク語テキスト補完
ウズベク語テキストの欠落部分、例えば文中のマスクトークンを補完するために使用します。
ウズベク語テキスト分類
感情分析やトピック分類など、ウズベク語テキストの分類タスクに使用します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase