# 多領域問答

Delta Pavonis Qwen 14B
Apache-2.0
基於千問2.5 14B模態架構設計的增強推理模型,優化通用推理與問答場景,支持128K上下文和8K輸出
大型語言模型 Transformers
D
prithivMLmods
547
3
Theta Lyrae Qwen 14B
Apache-2.0
Theta-Lyrae-Qwen-14B是基於Qwen 2.5 14B模態架構設計的140億參數模型,優化了通用推理和問答能力,在上下文理解、邏輯推理和多步驟問題解決方面表現優異。
大型語言模型 Transformers
T
prithivMLmods
21
2
SILMA Kashif 2B Instruct V1.0
SILMA Kashif 2B Instruct v1.0是專為阿拉伯語和英語RAG(檢索增強生成)任務設計的開源模型,基於谷歌Gemma構建,具備實體提取和多領域處理能力。
大型語言模型 Transformers 支持多種語言
S
silma-ai
3,432
17
Llama3.1 Korean V1.1 Sft By Aidx
Apache-2.0
基於LlaMA3.1微調的韓語大語言模型,適配韓國文化,支持53個領域的韓語任務
大型語言模型 Safetensors 韓語
L
SEOKDONG
1,242
10
Llama3.1 1B Neo BAAI 1000k
Apache-2.0
Llama3.1-Neo-1B-100w是基於Meta-Llama-3.1-8B-Instruct剪枝至1.4B參數規模,並採用LLM-Neo方法(結合LoRA與知識蒸餾)微調的高效語言模型。訓練數據採樣自BAAI/Infinity-Instruct的100萬行數據。
大型語言模型 Transformers
L
yang31210999
39
2
Llama 3.1 Storm 8B
Llama-3.1-Storm-8B 是基於 Llama-3.1-8B-Instruct 開發的模型,旨在提升 80 億參數模型類的對話和函數調用能力。
大型語言模型 Transformers 支持多種語言
L
akjindal53244
22.93k
176
Thespis Krangled 7b V2
基於多種數據集訓練的對話模型,支持中文交互,適用於非商業場景
大型語言模型 Transformers
T
cgato
20
1
Polish Reranker Base Mse
Apache-2.0
這是一個基於均方誤差(MSE)蒸餾方法訓練的波蘭語文本排序模型,訓練數據集包含140萬條查詢和1000萬份文檔的文本對。
文本嵌入 Transformers 其他
P
sdadas
16
0
Polish Reranker Large Ranknet
Apache-2.0
這是一個採用RankNet損失函數訓練的波蘭文本排序模型,訓練數據集包含140萬條查詢和1000萬份文檔組成的文本對。
文本嵌入 Transformers 其他
P
sdadas
337
2
Llama 160M Chat V1
Apache-2.0
這是一個160M參數的Llama聊天模型,基於JackFram/llama-160m微調而來,專注於文本生成任務。
大型語言模型 Transformers 英語
L
Felladrin
586
19
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase