🚀 Swamitucats/M2M100_Sanskrit_English 模型卡片
本模型專為梵語到英語的翻譯任務而設計,基於M2M100模型進行微調,使用包含梵語史詩翻譯的Itihasa數據集進行訓練,能有效助力梵語與英語之間的翻譯工作。
🚀 快速開始
使用以下代碼即可開始使用該模型:
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer
model = AutoModelForSeq2SeqLM.from_pretrained("Swamitucats/M2M100_Sanskrit_English")
tokenizer = AutoTokenizer.from_pretrained("Swamitucats/M2M100_Sanskrit_English")
sanskrit_text = "Your Sanskrit text here"
inputs = tokenizer(sanskrit_text, return_tensors="pt")
outputs = model.generate(**inputs)
english_translation = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(english_translation)
📚 詳細文檔
模型詳情
- 開發者:[待補充更多信息]
- 共享者(可選):[待補充更多信息]
- 模型類型:[待補充更多信息]
- 支持語言(NLP):['sa', 'en']
- 許可證:mit
- 微調基礎模型(可選):facebook/m2m100_418M
此模型是從M2M100微調而來,用於梵語到英語的翻譯。它在Itihasa數據集上進行訓練,該數據集包含梵語史詩的翻譯。
模型來源(可選)
- 倉庫:[待補充更多信息]
- 論文(可選):[待補充更多信息]
- 演示(可選):[待補充更多信息]
模型使用
直接使用
[待補充更多信息]
下游使用(可選)
[待補充更多信息]
超出適用範圍的使用
[待補充更多信息]
偏差、風險和侷限性
[待補充更多信息]
建議
用戶(包括直接用戶和下游用戶)應瞭解模型的風險、偏差和侷限性。如需進一步建議,還需更多信息。
訓練詳情
訓練數據
[待補充更多信息]
訓練過程
預處理(可選)
[待補充更多信息]
訓練超參數
速度、規模、時間(可選)
[待補充更多信息]
評估
測試數據、因素和指標
測試數據
[待補充更多信息]
因素
[待補充更多信息]
指標
[待補充更多信息]
結果
[待補充更多信息]
模型檢查(可選)
[待補充更多信息]
環境影響
可以使用 Lacoste等人(2019) 中提出的 機器學習影響計算器 來估算碳排放。
- 硬件類型:[待補充更多信息]
- 使用時長:[待補充更多信息]
- 雲服務提供商:[待補充更多信息]
- 計算區域:[待補充更多信息]
- 碳排放:[待補充更多信息]
技術規格(可選)
模型架構和目標
[待補充更多信息]
計算基礎設施
硬件
[待補充更多信息]
軟件
[待補充更多信息]
引用(可選)
BibTeX
[待補充更多信息]
APA
[待補充更多信息]
術語表(可選)
[待補充更多信息]
更多信息(可選)
[待補充更多信息]
模型卡片作者(可選)
[待補充更多信息]
模型卡片聯繫方式
[待補充更多信息]
📄 許可證
本模型使用的許可證為 MIT 許可證。
屬性 |
詳情 |
模型類型 |
[待補充更多信息] |
訓練數據 |
[待補充更多信息] |
⚠️ 重要提示
用戶(包括直接用戶和下游用戶)應瞭解模型的風險、偏差和侷限性。如需進一步建議,還需更多信息。
💡 使用建議
目前暫無更多使用建議,待獲取更多信息後可進一步補充。