Mistral Small 3.1 24b Base 2503 Hf
基於Mistral Small 3.1 Base 24B轉換的HuggingFace格式文本生成模型,不支持視覺功能
Downloads 358
Release Time : 3/17/2025
Model Overview
這是一個24B參數規模的大語言模型,專注於文本生成任務,適用於多種自然語言處理場景
Model Features
大參數規模
24B參數規模提供強大的語言理解和生成能力
HuggingFace兼容
轉換為HF格式,便於在transformers生態中使用
專注文本生成
優化了文本生成能力,適用於對話、創作等場景
Model Capabilities
文本生成
語言理解
對話系統
內容創作
Use Cases
對話系統
智能客服
用於構建自動客服對話系統
能夠理解用戶問題並生成相關回答
內容創作
文章生成
輔助寫作和內容創作
能夠根據提示生成連貫的文本內容
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 Chinese
R
uer
2,694
98