Persian Embeddings
P
Persian Embeddings
Developed by heydariAI
xlm-roberta-baseをファインチューニングしたペルシャ語埋め込みモデルで、ペルシャ語の意味タスクに最適化されています
テキスト埋め込み
Transformers Supports Multiple LanguagesOpen Source License:Apache-2.0#ペルシャ語埋め込み#多言語意味検索#文脈類似性計算

Downloads 27.37k
Release Time : 11/21/2024
Model Overview
このモデルはXLM-RoBERTaベースモデルをファインチューニングし、ペルシャ語コーパスで訓練されており、高品質なペルシャ語の文や段落の埋め込みを生成できます。意味検索、クラスタリング、類似性計算などのタスクに適しており、ペルシャ語と英語の多言語処理もサポートしています。
Model Features
ペルシャ語最適化
ペルシャ語の言語特性に特化して最適化されており、ペルシャ語の意味的ニュアンスをより良く捉えることができます
多言語サポート
ペルシャ語に加えて英語テキスト処理もサポートしており、多言語アプリケーションに適しています
高効率埋め込み
高品質な文や段落レベルの埋め込みベクトルを生成でき、下流のNLPタスクに適用可能です
Model Capabilities
テキスト埋め込み生成
意味的類似度計算
多言語テキスト処理
意味検索
テキストクラスタリング
Use Cases
情報検索
ペルシャ語意味検索
ペルシャ語検索エンジンを構築し、キーワードではなく意味に基づく文書検索を実現
ペルシャ語検索の関連性と精度を向上
テキスト分析
文書クラスタリング
ペルシャ語文書を自動分類・クラスタリング分析
人手によるラベル付けなしで文書間の意味的関連性を発見
多言語アプリケーション
クロスランゲージ検索
ペルシャ語と英語コンテンツ間の言語横断的意味マッチングを実現
言語の壁を打破し、多言語コンテンツ発見能力を向上
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98