35b Beta Long
3
35b Beta Long
由CausalLM開發
基於CohereForAI/c4ai-command-r-v01架構微調的350億參數多語言大語言模型,專注長上下文處理與事實型數據生成
下載量 79
發布時間 : 4/13/2024
模型概述
該模型通過整合海量多輪對話數據集和嚴格的質量控制流程,顯著提升了長上下文處理能力、減少幻覺現象,並增強數學/編程/知識檢索等通用能力
模型特點
長上下文處理
支持完整128K上下文窗口訓練,優化多文檔信息整合與跨段落推理能力
多語言事實生成
基於3000萬輪人工審核的多輪對話數據,強化多語言事實準確性
混合數據訓練
結合原始素材與合成數據訓練,平衡模型的知識調用與生成能力
安全防護
採用開源拒絕數據集實施基礎安全過濾,限制非法/NSFW內容輸出
模型能力
長文本摘要
跨文檔信息檢索
多語言對話生成
數學問題求解
代碼生成與解釋
知識問答
主題歸納分析
使用案例
知識管理
多文檔研究輔助
從大量研究材料中提取關鍵信息並生成對比分析
提升研究人員信息處理效率
教育
數學解題輔導
分步驟解釋複雜數學問題並提供類似例題
準確率媲美專業輔導教師
技術支持
代碼審查助手
分析長代碼文件並指出潛在問題
支持多種編程語言的上下文理解
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98