Mistral Small 3.1 24B Instruct 2503 GGUF
Mistral-Small-3.1-24B-Instruct-2503 是一個24B參數規模的多語言指令微調模型,支持多種語言和任務,適用於文本生成和對話場景。
下載量 1,059
發布時間 : 3/23/2025
模型概述
該模型基於Mistral架構,經過指令微調優化,支持多語言文本生成和對話任務。適用於需要高質量文本生成的應用場景。
模型特點
多語言支持
支持24種語言的文本生成和對話任務,覆蓋主要國際語言。
指令微調優化
經過專門的指令微調,能夠更好地理解和執行用戶指令。
大上下文窗口
支持32k tokens的上下文長度,適合處理長文檔和複雜對話。
量化版本選擇
提供多種量化版本,從Q2_K到f16,滿足不同硬件和性能需求。
模型能力
多語言文本生成
對話系統
指令理解與執行
長文本處理
使用案例
智能助手
多語言客服機器人
構建支持多種語言的智能客服系統
可提供24種語言的客戶服務支持
內容創作
多語言內容生成
自動生成多語言的營銷文案、文章等內容
高質量的多語言內容輸出
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98