Mgpt 1.3B Persian
ペルシア語に最適化された13億パラメータの言語モデル、mGPT-XL (1.3B)を基にした詳細なチューニング
Downloads 84
Release Time : 8/10/2023
Model Overview
ペルシア語テキスト生成に最適化された多言語大規模言語モデル、2048トークンのコンテキストウィンドウをサポート
Model Features
多言語サポート
ペルシア語、英語、ロシア語の3言語処理をネイティブサポート
長文理解
2048トークンのコンテキストウィンドウで、長文処理に適している
文化的適応
特にペルシア語の詩と文学伝統に合わせて最適化
効率的なトレーニング
単一のA100 GPUでチューニングトレーニングが可能
Model Capabilities
ペルシア語テキスト生成
多言語テキスト理解
長文の一貫性維持
詩のスタイル模倣
Use Cases
文学創作
ペルシア詩生成
ルーミー、ハーフェズなどの詩人のスタイルを模倣して詩を創作
ペルシア詩の韻律に合ったテキストを生成可能
教育応用
ペルシア語学習支援
文法正しいペルシア語の文を学習教材として生成
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98