Phi 4 GGUF
MIT
phi-4是微軟研究院開發的開源語言模型,專注於高質量數據和推理能力,適用於內存/計算受限環境。
大型語言模型 支持多種語言
P
Mungert
1,508
3
Llama 3 Cantonese 8B Instruct
基於Meta-Llama-3-8B-指導版的粵語語言模型,使用LoRA進行微調,提升粵語文本的生成和理解能力
大型語言模型 支持多種語言
L
lordjia
34
8
Openhermes 2.5
Apache-2.0
OpenHermes 2.5 Mistral 7B 是基於 Mistral 架構微調的最先進模型,是 OpenHermes 2 的延續版本,在額外代碼數據集上進行了訓練。
大型語言模型
O
cortexso
254
1
Llama 3 Bophades V3 8B
其他
基於Llama-3-8b構建的DPO微調模型,專注於提升真實性和數學推理能力
大型語言模型
Transformers

L
nbeerbower
44
3
Cendol Mt5 Small Chat
Apache-2.0
Cendol mT5-small Chat是一個3億參數的開源生成式大語言模型,針對印尼語、巽他語和爪哇語進行指令調優,適用於單輪對話場景。
大型語言模型
Transformers 其他

C
indonlp
46
3
Llm Jp 13b Instruct Full Jaster Dolly Oasst V1.0
Apache-2.0
由日本LLM-jp項目開發的大規模語言模型,支持日語和英語的文本生成任務
大型語言模型
Transformers 支持多種語言

L
llm-jp
750
8
Pythia Chat Base 7B
Apache-2.0
基於EleutherAI Pythia-7B微調的70億參數開源對話模型,使用100%負碳計算資源訓練超過4000萬條指令
大型語言模型
Transformers 英語

P
togethercomputer
194
68
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98