GRM Llama3.2 3B Rewardmodel Ft
Apache-2.0
基于Llama3架构的3B参数奖励模型,在reward-bench评测中获得90.9分,性能超越多个8B奖励模型
大型语言模型
G
Ray2333
3,464
13
URM LLaMa 3.1 8B
URM-LLaMa-3.1-8B是一个具备不确定性感知能力的奖励模型,用于改进大语言模型的对齐效果。
大型语言模型
U
LxzGordon
4,688
10
RM Gemma 2B
基于google/gemma-2b-it训练的奖励模型,用于评估文本生成质量
大型语言模型
Transformers

R
weqweasdas
2,618
25
Hh Rlhf Rm Open Llama 3b
基于LMFlow框架训练的奖励模型,针对HH - RLHF数据集(仅有用部分),以open_llama_3b为基础模型进行训练,具有良好的泛化能力。
大型语言模型
Transformers

H
weqweasdas
483
18
Response Quality Classifier Large
MIT
该模型用于评估对话中最后一条消息的相关性和具体性,基于sberbank-ai/ruRoberta-large架构。
对话系统
Transformers 其他

R
t-bank-ai
33
11
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98