🚀 AuthorMist Originality
AuthorMist Originality是一款专门的语言模型,旨在将AI生成的文本转化为更具人类风格的写作,同时保留原文的意思。该模型使用强化学习技术开发,专门用于绕过AI文本检测系统,尤其针对Originality.ai的检测算法。
🚀 快速开始
以下是使用AuthorMist Originality模型的示例代码:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "authormist/authormist-originality"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
ai_text = "Your AI-generated text here..."
prompt = f"""Please paraphrase the following text to make it more human-like while preserving the original meaning:
{ai_text}
Paraphrased text:"""
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(
inputs.input_ids,
max_new_tokens=512,
temperature=0.7,
top_p=0.9,
do_sample=True
)
paraphrased_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(paraphrased_text.split("Paraphrased text:")[1].strip())
✨ 主要特性
- 绕过检测:经过专门训练,可绕过Originality.ai的检测算法,且具有较强的跨检测器泛化能力。
- 保留原意:与原文保持较高的语义相似度(>0.94)。
- 输出自然:生成的文本流畅、连贯,读起来自然。
- 应用广泛:在学术、技术和创意写作等多个领域均有效。
📚 详细文档
模型详情
属性 |
详情 |
基础模型 |
Qwen2.5-3B Instruct |
训练方法 |
使用组相对策略优化(GRPO)的强化学习 |
训练数据 |
CheckGPT数据集中的10,000个人工撰写摘要及其对应的AI生成版本 |
覆盖领域 |
计算机科学、人文科学、社会科学、物理学等 |
支持文本长度 |
针对100到500个单词的文本进行了优化 |
性能表现
AuthorMist Originality在绕过AI文本检测方面表现出色:
- 平均AUROC:在六个主要检测系统中平均为0.49。
- 平均F1分数:在所有测试的检测器中平均为0.09。
- 语义相似度:与原文的相似度>0.94。
该模型在以下检测系统中表现尤为突出:
- Hello SimpleAI(AUROC:0.07)
- Sapling(AUROC:0.13)
- Winston.ai(AUROC:0.35)
🔧 技术细节
AuthorMist Originality使用强化学习技术,特别是组相对策略优化(GRPO),以检测器反馈作为奖励信号进行微调。这种方法使得模型能够在保持与原文高语义相似度的同时,有效绕过AI文本检测系统。
📄 许可证
此模型根据MIT许可证发布。
💡 使用建议
⚠️ 重要提示
AuthorMist Originality是为研究目的而发布的,用于增进对AI文本检测局限性和隐私保护技术的理解。该技术具有双重用途,因此在使用时需考虑以下道德因素:
- 学术诚信:在学术环境中,不应使用此模型将AI生成的内容伪装成人类撰写的内容。
- 透明度:鼓励用户在内容创作中使用AI辅助工具时保持透明。
- 隐私保护:该技术的主要合法用例是保护作者隐私,防止在允许使用AI辅助的情况下对AI辅助写作进行不公平的歧视。
- 研究价值:此模型为当前AI检测系统的局限性提供了有价值的见解,并有助于关于AI文本检测和隐私的持续研究讨论。
💡 使用建议
在使用该模型时,请确保遵守相关的道德和法律规定,避免不当使用。
📖 引用
如果您在研究中使用了AuthorMist Originality,请引用我们的论文:
@article{authormist2025,
title={AuthorMist: Evading AI Text Detectors with Reinforcement Learning},
author={David, Isaac and Gervais, Arthur},
journal={arXiv preprint},
year={2025}
}
🙏 致谢
感谢Qwen2.5的开发者提供基础模型,以及CheckGPT数据集的创建者提供有价值的训练数据。