Phi 3.5 Mini Instruct
MIT
Phi-3.5-mini-instruct是一款輕量級、先進的開源模型,基於Phi-3使用的數據集構建,專注於高質量、富含推理的數據。支持128K令牌上下文長度,具有強大的多語言能力和長上下文處理能力。
大型語言模型
Transformers 其他

P
Lexius
129
1
Solarav2 Coder 0511
Apache-2.0
SolaraV2是原始Solara模型的升級版,它是一個輕量級、經過指令微調的語言模型,由高中生開發,適用於日常對話和教育任務。
大型語言模型
Transformers 英語

S
summerstars
1,766
1
Doge 160M Instruct
Apache-2.0
Doge 160M 是一個基於動態掩碼注意力機制的小型語言模型,採用監督微調(SFT)和直接偏好優化(DPO)訓練而成。
大型語言模型
Transformers 英語

D
SmallDoge
2,223
12
Phi 3 Mini 4k Instruct Q4 K M GGUF
MIT
該模型是通過ggml.ai的GGUF-my-repo空間,使用llama.cpp從microsoft/Phi-3-mini-4k-instruct轉換而來的GGUF格式模型。
大型語言模型 支持多種語言
P
matrixportal
67
3
Phi 3 Mini 4k Instruct Onnx
MIT
Phi-3 Mini 是一款輕量級、前沿的開源模型,專注於高質量、高推理密度的數據,支持4K上下文長度。
大型語言模型
Transformers

P
microsoft
370
137
Gemma 2b It Pytorch
Gemma是谷歌開發的輕量級開源大語言模型,提供20億參數版本,適用於文本生成任務。
大型語言模型
G
google
76
11
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98