W

Watashiha Gpt 6b

由 watashiha 开发
基于GPT2架构开发的日语大喜利语言模型,经过预训练和大喜利数据微调
下载量 1,831
发布时间 : 12/28/2023

模型简介

这是一个专门用于生成大喜利(日本传统文字游戏)内容的语言模型,基于GPT2架构开发,经过大量日语语料预训练和693万条大喜利数据微调。

模型特点

专业大喜利生成
专门针对大喜利内容进行优化,能生成符合日本传统文字游戏规则的有趣回答
大规模预训练
使用477亿个令牌的日语语料进行预训练,包括C4、CC-100、OSCAR和Wikipedia等数据集
专业微调
使用693万条大喜利数据进行微调,提高生成内容的相关性和趣味性
AWS优化
利用AWS的trn1实例开发,针对云环境优化

模型能力

日语文本生成
大喜利内容创作
幽默文本生成

使用案例

娱乐应用
大喜利游戏
用于生成符合大喜利游戏规则的有趣回答
在评估中,约44%的回答被评为3本(具有一定程度以上的趣味性)
内容创作
为喜剧节目或社交媒体提供创意内容
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase