Llama 3.1 Nemotron Nano 4B V1.1 GGUF
模型概述
基於Llama 3.1 8B模型通過剪枝和蒸餾創建的輕量級模型,優化了人類對話偏好及檢索增強生成(RAG)、工具調用等能力
模型特點
超長上下文支持
支持128k tokens的上下文窗口,適合處理長文檔和複雜對話場景
輕量化設計
通過剪枝和蒸餾技術從8B模型壓縮而來,保持性能的同時降低計算需求
對話優化
專門針對人類對話偏好進行優化,生成更自然的交互響應
模型能力
文本生成
對話系統
檢索增強生成(RAG)
工具調用
使用案例
智能助手
客服對話系統
部署為在線客服助手處理用戶諮詢
能理解複雜問題並生成符合業務場景的回覆
知識處理
長文檔分析
處理技術文檔、法律文書等長文本材料
利用128k上下文窗口保持長期記憶和連貫理解
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98