Theta Lyrae Qwen 14B
T
Theta Lyrae Qwen 14B
由prithivMLmods開發
Theta-Lyrae-Qwen-14B是基於Qwen 2.5 14B模態架構設計的140億參數模型,優化了通用推理和問答能力,在上下文理解、邏輯推理和多步驟問題解決方面表現優異。
下載量 21
發布時間 : 3/14/2025
模型概述
該模型通過長鏈思維推理模型和專用數據集的微調,提升了理解能力、結構化響應和對話智能,支持128K令牌的輸入上下文和8K令牌的單次輸出。
模型特點
增強的通用知識
覆蓋多領域知識,提升準確回答問題及生成連貫響應的能力。
改進的指令遵循
顯著提升對複雜指令的理解與執行能力,生成結構化響應並保持長對話一致性。
多樣化適應力
對多樣化提示更具韌性,可處理開放式與結構化提問等廣泛話題。
長上下文支持
支持128K令牌的輸入上下文,單次輸出可達8K令牌,適合生成詳細回答。
模型能力
文本生成
邏輯推理
問答
多步驟問題解決
結構化響應生成
長文本生成
使用案例
通用推理
邏輯推理
適用於邏輯推理、多樣化問答及常識問題解決。
生成連貫且邏輯性強的回答
教育信息輔助
教育解釋
為學生、教育者及普通用戶提供解釋、摘要和研究型回答。
提供清晰且易於理解的教育內容
對話AI與聊天機器人
智能對話代理
適合構建需上下文理解和動態響應生成的智能對話代理。
保持對話一致性和上下文連貫性
結構化數據處理
數據科學與自動化
可分析生成表格、JSON等結構化輸出,適用於數據科學與自動化。
生成結構化且易於處理的數據
長文本生成
文章與報告生成
能生成文章、報告等長篇內容並保持連貫性。
生成長篇且內容連貫的文本
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98