# 多輪對話增強

Xlam 2 3b Fc R GGUF
xLAM-2-3b-fc-r GGUF模型是基於特定量化方法生成的文本生成模型,專注於函數調用、LLM代理和工具使用場景。
大型語言模型 Transformers 英語
X
Mungert
1,316
1
Xlam 2 1b Fc R
xLAM-2是Salesforce研發的大型動作模型系列,專注於多輪對話和函數調用能力,可作為AI代理的核心組件。
大型語言模型 Transformers 英語
X
Salesforce
63
2
Magnum V4 27b Gguf
基於Gemma 27b微調的對話模型,旨在復現Claude 3的文本質量,支持ChatML格式的對話交互。
大型語言模型 英語
M
anthracite-org
1,220
31
Llama Xlam 2 8b Fc R
xLAM-2系列是基於APIGen-MT框架訓練的大型動作模型,專注於多輪對話和函數調用能力,適用於AI代理開發。
大型語言模型 Transformers 英語
L
Salesforce
778
8
Rei V2 12B
基於Mistral-Nemo-Instruct微調的大語言模型,旨在複製Claude 3模型的精美散文質量
大型語言模型 Transformers 英語
R
Delta-Vector
209
11
L3.3 Cu Mai R1 70b
基於Llama3架構的70B參數大語言模型,經過特殊優化處理
大型語言模型 Safetensors
L
Steelskull
164
14
Llama 3 Groq 8B Tool Use GGUF
基於Llama-3-8B的Groq優化版本,支持工具使用和函數調用功能
大型語言模型 英語
L
tensorblock
125
1
Ruadaptqwen2.5 32B Instruct
Apache-2.0
這是將Qwen2.5-32B模型適配為俄語的指令型版本,通過更換分詞器和應用LEP技術顯著提升了俄語文本生成速度。
大型語言模型 Safetensors
R
msu-rcc-lair
1,502
46
Llama 3.2 3B Instruct Frog
專為越南語優化的RAG版LLaMA3.2模型,基於Meta的輕量級LLM開發,適合本地和邊緣設備部署。
大型語言模型 Safetensors 支持多種語言
L
phamhai
2,040
14
Magnum V4 72b FP8 Dynamic
Apache-2.0
基於Qwen2.5-72B-Instruct微調的72B參數大語言模型,採用動態FP8量化技術優化推理效率,旨在復現Claude 3的散文質量
大型語言模型 Transformers 英語
M
Infermatic
2,106
2
Sapie Gemma2 9B IT
基於Google Gemma-2-9b-it模型優化的韓語版本,由Saltware開發,適用於韓語自然語言處理任務。
大型語言模型 Transformers 韓語
S
hometax
171
4
Ichigo Llama3.1 S Instruct V0.3 Phase 3
Apache-2.0
Ichigo-llama3s系列模型之一,專注於提升處理模糊輸入和多輪對話的能力,支持音頻和文本輸入。
文本生成音頻 英語
I
Menlo
20
35
It 5.3 Fp16 32k
Apache-2.0
旋風0.5*是一個支持俄語和英語的開源大語言模型,擴展了RoPE上下文窗口至32k,優化了JSON處理和多輪對話能力
大型語言模型 Transformers 支持多種語言
I
Vikhrmodels
74
11
Glm 4 9b
其他
GLM-4-9B是智譜AI推出的最新開源預訓練模型,在多項基準測試中超越Llama-3-8B,支持128K上下文長度和26種語言。
大型語言模型 Transformers 支持多種語言
G
THUDM
9,944
132
LLAMA 3 Quantized
MIT
Meta Llama 3 - 8B Instruct大語言模型的8位量化版本,減小模型體積並提升推理速度,適合資源有限設備部署。
大型語言模型 Transformers
L
Kameshr
18
9
Llama 3 8B Instruct Gradient 1048k
由Gradient開發的Llama-3 8B長上下文擴展版本,支持超過100萬token的上下文長度,通過優化RoPE theta參數實現高效長文本處理能力。
大型語言模型 Transformers 英語
L
gradientai
5,272
682
Mistral 7B Instruct V0.2 Fp8
Apache-2.0
由FriendliAI量化為FP8精度的Mistral-7B-Instruct-v0.2模型,在保持高精度的同時顯著提升推理效率。
大型語言模型 Transformers
M
FriendliAI
37
12
Gemma 1.1 2b It
Gemma是Google推出的輕量級開放模型系列,基於與Gemini相同技術構建,適用於多種文本生成任務。
大型語言模型 Transformers
G
google
71.01k
158
Mistral 7B Instruct V0.2 Sparsity 30 V0.1
Apache-2.0
Mistral-7B-Instruct-v0.2是基於Mistral-7B-Instruct-v0.1增強的指令微調大語言模型,採用Wanda剪枝方法實現30%稀疏化,無需重新訓練即可保持競爭力性能。
大型語言模型 Transformers
M
wang7776
75
1
Dpopenhermes 7B V2
Apache-2.0
DPOpenHermes 7B v2是基於OpenHermes-2.5-Mistral-7B的第二次RL微調模型,通過直接偏好優化(DPO)進行強化學習,使用了Intel/orca_dpo_pairs和allenai/ultrafeedback_binarized_cleaned偏好數據集。
大型語言模型 Transformers 英語
D
openaccess-ai-collective
30
31
Tulu 2 Dpo 7b
其他
Tulu V2 DPO 7B是基於Llama 2 7B微調的語言模型,採用直接偏好優化(DPO)方法訓練,旨在作為通用助手。
大型語言模型 Transformers 英語
T
allenai
1,702
20
Mythalion 13b
Pygmalion-2 13B與MythoMax 13B的融合模型,專注於角色扮演/聊天場景
大型語言模型 Transformers 英語
M
PygmalionAI
671
158
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase