Math Roberta
基于RoBERTa-large架构微调的数学学习环境专用NLP模型,针对数学教育场景优化
下载量 257
发布时间 : 3/2/2022
模型简介
该模型专门用于处理数学学习环境中的自然语言任务,如文本分类、语义搜索和问答系统。通过训练300万条师生数学讨论数据构建,适用于教育技术领域。
模型特点
数学教育场景优化
专门针对数学学习环境中的语言特点进行微调,能更好理解数学术语和师生对话
大规模训练数据
基于Algebra Nation平台的300万条真实师生数学讨论数据训练
高性能架构
采用RoBERTa-large架构,包含24个网络层,提供强大的语义理解能力
模型能力
数学文本理解
教育场景语义分析
学习内容分类
数学问题解答
教育对话处理
使用案例
教育技术
自动答疑系统
用于数学学习平台自动回答学生提出的问题
提高学习效率,减轻教师负担
学习内容分类
对学生讨论内容进行自动分类和标记
帮助教师了解学生关注点和困难点
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98