🚀 AuthorMist Originality
AuthorMist Originality是一款專門的語言模型,旨在將AI生成的文本轉化為更具人類風格的寫作,同時保留原文的意思。該模型使用強化學習技術開發,專門用於繞過AI文本檢測系統,尤其針對Originality.ai的檢測算法。
🚀 快速開始
以下是使用AuthorMist Originality模型的示例代碼:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "authormist/authormist-originality"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
ai_text = "Your AI-generated text here..."
prompt = f"""Please paraphrase the following text to make it more human-like while preserving the original meaning:
{ai_text}
Paraphrased text:"""
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(
inputs.input_ids,
max_new_tokens=512,
temperature=0.7,
top_p=0.9,
do_sample=True
)
paraphrased_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(paraphrased_text.split("Paraphrased text:")[1].strip())
✨ 主要特性
- 繞過檢測:經過專門訓練,可繞過Originality.ai的檢測算法,且具有較強的跨檢測器泛化能力。
- 保留原意:與原文保持較高的語義相似度(>0.94)。
- 輸出自然:生成的文本流暢、連貫,讀起來自然。
- 應用廣泛:在學術、技術和創意寫作等多個領域均有效。
📚 詳細文檔
模型詳情
屬性 |
詳情 |
基礎模型 |
Qwen2.5-3B Instruct |
訓練方法 |
使用組相對策略優化(GRPO)的強化學習 |
訓練數據 |
CheckGPT數據集中的10,000個人工撰寫摘要及其對應的AI生成版本 |
覆蓋領域 |
計算機科學、人文科學、社會科學、物理學等 |
支持文本長度 |
針對100到500個單詞的文本進行了優化 |
性能表現
AuthorMist Originality在繞過AI文本檢測方面表現出色:
- 平均AUROC:在六個主要檢測系統中平均為0.49。
- 平均F1分數:在所有測試的檢測器中平均為0.09。
- 語義相似度:與原文的相似度>0.94。
該模型在以下檢測系統中表現尤為突出:
- Hello SimpleAI(AUROC:0.07)
- Sapling(AUROC:0.13)
- Winston.ai(AUROC:0.35)
🔧 技術細節
AuthorMist Originality使用強化學習技術,特別是組相對策略優化(GRPO),以檢測器反饋作為獎勵信號進行微調。這種方法使得模型能夠在保持與原文高語義相似度的同時,有效繞過AI文本檢測系統。
📄 許可證
此模型根據MIT許可證發佈。
💡 使用建議
⚠️ 重要提示
AuthorMist Originality是為研究目的而發佈的,用於增進對AI文本檢測侷限性和隱私保護技術的理解。該技術具有雙重用途,因此在使用時需考慮以下道德因素:
- 學術誠信:在學術環境中,不應使用此模型將AI生成的內容偽裝成人類撰寫的內容。
- 透明度:鼓勵用戶在內容創作中使用AI輔助工具時保持透明。
- 隱私保護:該技術的主要合法用例是保護作者隱私,防止在允許使用AI輔助的情況下對AI輔助寫作進行不公平的歧視。
- 研究價值:此模型為當前AI檢測系統的侷限性提供了有價值的見解,並有助於關於AI文本檢測和隱私的持續研究討論。
💡 使用建議
在使用該模型時,請確保遵守相關的道德和法律規定,避免不當使用。
📖 引用
如果您在研究中使用了AuthorMist Originality,請引用我們的論文:
@article{authormist2025,
title={AuthorMist: Evading AI Text Detectors with Reinforcement Learning},
author={David, Isaac and Gervais, Arthur},
journal={arXiv preprint},
year={2025}
}
🙏 致謝
感謝Qwen2.5的開發者提供基礎模型,以及CheckGPT數據集的創建者提供有價值的訓練數據。