🚀 RuM2M100-1.2B模型
RuM2M100-1.2B模型能够将文本中的所有单词规范为俄语标准形式,从而纠正拼写错误和打字错误。该模型基于M2M100-1.2B模型进行训练。
✨ 主要特性
- 该模型能够有效纠正俄语中的拼写错误和打字错误,将文本中的所有单词规范为俄语标准形式。
- 基于M2M100-1.2B模型进行训练,利用了大规模的“人工”错误数据集。
- 训练语料库基于俄语维基百科和俄语视频转录本构建,并使用SAGE库自动引入了拼写错误和打字错误。
📦 安装指南
文档未提及安装步骤,此部分跳过。
💻 使用示例
基础用法
from transformers import M2M100ForConditionalGeneration, M2M100Tokenizer
path_to_model = "ai-forever/RuM2M100-1.2B"
model = M2M100ForConditionalGeneration.from_pretrained(path_to_model)
tokenizer = M2M100Tokenizer.from_pretrained(path_to_model, src_lang="ru", tgt_lang="ru")
sentence = "прийдя в МГТУ я был удивлен никого необноружив там…"
encodings = tokenizer(sentence, return_tensors="pt")
generated_tokens = model.generate(
**encodings, forced_bos_token_id=tokenizer.get_lang_id("ru"))
answer = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
print(answer)
📚 详细文档
模型概述
该拼写纠正器基于M2M100-1.2B模型进行训练。训练语料库采用了一个包含“人工”错误的广泛数据集,该数据集基于俄语维基百科和俄语视频的转录本构建,然后使用SAGE库自动引入了拼写错误和打字错误。
公共参考资料
示例
输入 |
输出 |
Думю ешцъа лет череа 10 ретроспективно просматривотьэ то будкетцц мне невероя тна ин те р но |
Думаю что лет через 10 ретроспективно просматривать это будет мне невероятно интересно |
Основая цель мероприятия - практическая отработка навыков по оказанию помощи гражданам, попавшим в ДТП, а также повышение и совершенствование уровня профессиональной подготовки сотрудников МЧС при проведении аварийно-спасательных работ по ликвидации последствий дорожно-транспортных проишествий, сокращение временных показателей реагирования. |
Основная цель мероприятия - практическая отработка навыков по оказанию помощи гражданам, попавшим в ДТП, а также повышение и совершенствование уровня профессиональной подготовки сотрудников МЧС при проведении аварийно-спасательных работ по ликвидации последствий дорожно-транспортных происшествий, сокращение временных показателей реагирования. |
прийдя в МГТУ я был удивлен никого необноружив там… |
прийдя в МГТУ я был удивлен никого не обнаружив там... |
指标
以下是用于确定拼写检查器正确性的自动指标。我们在所有四个可用数据集上,将我们的解决方案与开源自动拼写检查器和ChatGPT系列模型进行了比较:
- RUSpellRU:从(LiveJournal)收集的文本,手动纠正了拼写错误和打字错误;
- MultidomainGold:来自7个文本来源的示例,包括开放网络、新闻、社交媒体、评论、字幕、政策文件和文学作品;
- MedSpellChecker:来自医学病历的错误文本;
- GitHubTypoCorpusRu:来自GitHub提交中的拼写错误和打字错误。
RUSpellRU
模型 |
精确率 |
召回率 |
F1值 |
M2M100-1.2B |
59.4 |
43.3 |
50.1 |
ChatGPT gpt-3.5-turbo-0301 |
55.8 |
75.3 |
64.1 |
ChatGPT gpt-4-0314 |
57.0 |
75.9 |
63.9 |
ChatGPT text-davinci-003 |
55.9 |
75.3 |
64.2 |
Yandex.Speller |
83.0 |
59.8 |
69.5 |
JamSpell |
42.1 |
32.8 |
36.9 |
HunSpell |
31.3 |
34.9 |
33.0 |
MultidomainGold
模型 |
精确率 |
召回率 |
F1值 |
M2M100-1.2B |
56.4 |
44.8 |
49.9 |
ChatGPT gpt-3.5-turbo-0301 |
33.8 |
72.1 |
46.0 |
ChatGPT gpt-4-0314 |
34.0 |
73.2 |
46.4 |
ChatGPT text-davinci-003 |
33.6 |
72.0 |
45.8 |
Yandex.Speller |
52.9 |
51.4 |
52.2 |
JamSpell |
25.7 |
30.6 |
28.0 |
HunSpell |
16.2 |
40.1 |
23.0 |
MedSpellChecker
模型 |
精确率 |
召回率 |
F1值 |
M2M100-1.2B |
63.7 |
57.8 |
60.6 |
ChatGPT gpt-3.5-turbo-0301 |
53.2 |
67.6 |
59.6 |
ChatGPT gpt-4-0314 |
54.2 |
69.4 |
60.9 |
ChatGPT text-davinci-003 |
47.8 |
68.4 |
56.3 |
Yandex.Speller |
80.6 |
47.8 |
60.0 |
JamSpell |
24.6 |
29.7 |
26.9 |
HunSpell |
10.3 |
40.2 |
16.4 |
GitHubTypoCorpusRu
模型 |
精确率 |
召回率 |
F1值 |
M2M100-1.2B |
45.7 |
41.4 |
43.5 |
ChatGPT gpt-3.5-turbo-0301 |
43.8 |
57.0 |
49.6 |
ChatGPT gpt-4-0314 |
45.2 |
58.2 |
51.0 |
ChatGPT text-davinci-003 |
46.5 |
58.1 |
51.7 |
Yandex.Speller |
67.7 |
37.5 |
48.3 |
JamSpell |
49.5 |
29.9 |
37.3 |
HunSpell |
28.5 |
30.7 |
29.6 |
🔧 技术细节
文档未提及技术实现细节,此部分跳过。
📄 许可证
模型M2M100-1.2B及其源代码基于MIT开源许可证提供。我们的解决方案也采用MIT许可证。
📋 规格信息
属性 |
详情 |
文件大小 |
5 Gb |
框架 |
pytorch |
格式 |
AI服务 |
版本 |
v1.0 |
开发者 |
SberDevices, AGI NLP |
📞 联系方式
如需联系,请发送邮件至 nikita.martynov.98@list.ru。
📚 资源链接