🚀 Swamitucats/M2M100_Sanskrit_English 模型卡片
本模型专为梵语到英语的翻译任务而设计,基于M2M100模型进行微调,使用包含梵语史诗翻译的Itihasa数据集进行训练,能有效助力梵语与英语之间的翻译工作。
🚀 快速开始
使用以下代码即可开始使用该模型:
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer
model = AutoModelForSeq2SeqLM.from_pretrained("Swamitucats/M2M100_Sanskrit_English")
tokenizer = AutoTokenizer.from_pretrained("Swamitucats/M2M100_Sanskrit_English")
sanskrit_text = "Your Sanskrit text here"
inputs = tokenizer(sanskrit_text, return_tensors="pt")
outputs = model.generate(**inputs)
english_translation = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(english_translation)
📚 详细文档
模型详情
- 开发者:[待补充更多信息]
- 共享者(可选):[待补充更多信息]
- 模型类型:[待补充更多信息]
- 支持语言(NLP):['sa', 'en']
- 许可证:mit
- 微调基础模型(可选):facebook/m2m100_418M
此模型是从M2M100微调而来,用于梵语到英语的翻译。它在Itihasa数据集上进行训练,该数据集包含梵语史诗的翻译。
模型来源(可选)
- 仓库:[待补充更多信息]
- 论文(可选):[待补充更多信息]
- 演示(可选):[待补充更多信息]
模型使用
直接使用
[待补充更多信息]
下游使用(可选)
[待补充更多信息]
超出适用范围的使用
[待补充更多信息]
偏差、风险和局限性
[待补充更多信息]
建议
用户(包括直接用户和下游用户)应了解模型的风险、偏差和局限性。如需进一步建议,还需更多信息。
训练详情
训练数据
[待补充更多信息]
训练过程
预处理(可选)
[待补充更多信息]
训练超参数
速度、规模、时间(可选)
[待补充更多信息]
评估
测试数据、因素和指标
测试数据
[待补充更多信息]
因素
[待补充更多信息]
指标
[待补充更多信息]
结果
[待补充更多信息]
模型检查(可选)
[待补充更多信息]
环境影响
可以使用 Lacoste等人(2019) 中提出的 机器学习影响计算器 来估算碳排放。
- 硬件类型:[待补充更多信息]
- 使用时长:[待补充更多信息]
- 云服务提供商:[待补充更多信息]
- 计算区域:[待补充更多信息]
- 碳排放:[待补充更多信息]
技术规格(可选)
模型架构和目标
[待补充更多信息]
计算基础设施
硬件
[待补充更多信息]
软件
[待补充更多信息]
引用(可选)
BibTeX
[待补充更多信息]
APA
[待补充更多信息]
术语表(可选)
[待补充更多信息]
更多信息(可选)
[待补充更多信息]
模型卡片作者(可选)
[待补充更多信息]
模型卡片联系方式
[待补充更多信息]
📄 许可证
本模型使用的许可证为 MIT 许可证。
属性 |
详情 |
模型类型 |
[待补充更多信息] |
训练数据 |
[待补充更多信息] |
⚠️ 重要提示
用户(包括直接用户和下游用户)应了解模型的风险、偏差和局限性。如需进一步建议,还需更多信息。
💡 使用建议
目前暂无更多使用建议,待获取更多信息后可进一步补充。