🚀 連貫性測試模型
本模型專為對話連貫性測試而設計,能有效評估回覆與問題的相關性和連貫性,可用於提升聊天機器人和對話系統的性能。
🚀 快速開始
你可以按照以下方式使用該模型:
from sentence_transformers import CrossEncoder
model = CrossEncoder('enochlev/coherence-all-mpnet-base-v2')
output = model.predict([["What is your favorite color?", "Blue!"],
["Do you like playing outside?", "I like ice cream."],
["What is your favorite animal?", "I like dogs!"],
["Do you want to go to the park?", "Yes, I want to go on the swings!"],
["What is your favorite food?", "I like playing with blocks."],
["Do you have a pet?", "Yes, I have a cat named Whiskers."],
["What is your favorite thing to do on a sunny day?", "I like playing soccer with my friends."]])
print(output)
輸出數組代表連貫性得分,分數越高表示連貫性越強。
✨ 主要特性
- 專為對話連貫性測試設計:該模型是
sentence-transformers/all-mpnet-base-v2
的微調版本,專門用於評估對話的連貫性。
- 使用交叉編碼器架構:藉助 sentence-transformers 庫中的交叉編碼器架構,能夠準確評估回覆與問題的相關性。
- 可直接使用或進一步微調:可以直接用於提升聊天機器人或對話系統的性能,也可以針對特定的對話系統進行進一步微調。
📚 詳細文檔
模型詳情
模型描述
此模型是 sentence-transformers/all-mpnet-base-v2
的微調版本,專為對話連貫性測試而設計。它利用 sentence-transformers 庫中的交叉編碼器架構,旨在評估給定提示或問題下回復的相關性和連貫性。
- 開發者:Enoch Levandovsky
- 模型類型:交叉編碼器
- 語言:英語
- 許可證:更多信息請查看倉庫
- 微調基礎模型:sentence-transformers/all-mpnet-base-v2
模型來源
用途
直接使用
該模型旨在評估給定問題或提示下回復的連貫性。它可以直接用於提升聊天機器人或對話系統的性能,通過預測回覆的連貫性或相關性,從而提高對話代理的質量。
下游使用
該模型可以針對特定的對話系統進行進一步微調,或作為更大的對話式人工智能框架的組件,以確保回覆有意義且符合上下文。
超出適用範圍的使用
該模型不適用於需要複雜情感分析、情感基調識別或對話連貫性評估之外的任務。
結果
示例輸出中,接近 1 的分數表示回覆具有連貫性或相關性。例如:
Output >>> array([0.88097143, 0.04521223, 0.943173 , 0.9436357 , 0.04369843,
0.94450355, 0.8392763 ], dtype=float32)
評估與侷限性
測試數據、因素和指標
該模型使用 CHILDES 數據集進行了微調與評估,以確保能有效捕捉對話的連貫性。
建議
用戶應注意,雖然該模型能預測連貫性,但可能無法完全捕捉到對話中的細微元素,如諷刺或幽默。
環境影響
請參考 機器學習影響計算器 來估算碳排放。雖然沒有該模型訓練的具體細節,但請考慮採用一般的最佳實踐來減少環境影響。
引用
若要引用此模型,請在 Hugging Face 倉庫頁面和原模型創建者 Enoch Levandovsky 處提供適當的引用信息。
📄 許可證
更多許可證信息請查看倉庫。
屬性 |
詳情 |
模型類型 |
交叉編碼器 |
語言 |
英語 |
微調基礎模型 |
sentence-transformers/all-mpnet-base-v2 |
💡 使用建議
該模型雖然能有效評估對話連貫性,但對於包含諷刺、幽默等細微元素的對話,可能無法完全準確評估。在使用時需注意其侷限性。