Xlam 2 3b Fc R GGUF
xLAM-2-3b-fc-r GGUF模型是基於特定量化方法生成的文本生成模型,專注於函數調用、LLM代理和工具使用場景。
大型語言模型
Transformers 英語

X
Mungert
1,316
1
Xlam 2 1b Fc R
xLAM-2是Salesforce研發的大型動作模型系列,專注於多輪對話和函數調用能力,可作為AI代理的核心組件。
大型語言模型
Transformers 英語

X
Salesforce
63
2
Magnum V4 27b Gguf
基於Gemma 27b微調的對話模型,旨在復現Claude 3的文本質量,支持ChatML格式的對話交互。
大型語言模型 英語
M
anthracite-org
1,220
31
Llama Xlam 2 8b Fc R
xLAM-2系列是基於APIGen-MT框架訓練的大型動作模型,專注於多輪對話和函數調用能力,適用於AI代理開發。
大型語言模型
Transformers 英語

L
Salesforce
778
8
Rei V2 12B
基於Mistral-Nemo-Instruct微調的大語言模型,旨在複製Claude 3模型的精美散文質量
大型語言模型
Transformers 英語

R
Delta-Vector
209
11
L3.3 Cu Mai R1 70b
基於Llama3架構的70B參數大語言模型,經過特殊優化處理
大型語言模型
Safetensors
L
Steelskull
164
14
Llama 3 Groq 8B Tool Use GGUF
基於Llama-3-8B的Groq優化版本,支持工具使用和函數調用功能
大型語言模型 英語
L
tensorblock
125
1
Ruadaptqwen2.5 32B Instruct
Apache-2.0
這是將Qwen2.5-32B模型適配為俄語的指令型版本,通過更換分詞器和應用LEP技術顯著提升了俄語文本生成速度。
大型語言模型
Safetensors
R
msu-rcc-lair
1,502
46
Llama 3.2 3B Instruct Frog
專為越南語優化的RAG版LLaMA3.2模型,基於Meta的輕量級LLM開發,適合本地和邊緣設備部署。
大型語言模型
Safetensors 支持多種語言
L
phamhai
2,040
14
Magnum V4 72b FP8 Dynamic
Apache-2.0
基於Qwen2.5-72B-Instruct微調的72B參數大語言模型,採用動態FP8量化技術優化推理效率,旨在復現Claude 3的散文質量
大型語言模型
Transformers 英語

M
Infermatic
2,106
2
Sapie Gemma2 9B IT
基於Google Gemma-2-9b-it模型優化的韓語版本,由Saltware開發,適用於韓語自然語言處理任務。
大型語言模型
Transformers 韓語

S
hometax
171
4
Ichigo Llama3.1 S Instruct V0.3 Phase 3
Apache-2.0
Ichigo-llama3s系列模型之一,專注於提升處理模糊輸入和多輪對話的能力,支持音頻和文本輸入。
文本生成音頻 英語
I
Menlo
20
35
It 5.3 Fp16 32k
Apache-2.0
旋風0.5*是一個支持俄語和英語的開源大語言模型,擴展了RoPE上下文窗口至32k,優化了JSON處理和多輪對話能力
大型語言模型
Transformers 支持多種語言

I
Vikhrmodels
74
11
Glm 4 9b
其他
GLM-4-9B是智譜AI推出的最新開源預訓練模型,在多項基準測試中超越Llama-3-8B,支持128K上下文長度和26種語言。
大型語言模型
Transformers 支持多種語言

G
THUDM
9,944
132
LLAMA 3 Quantized
MIT
Meta Llama 3 - 8B Instruct大語言模型的8位量化版本,減小模型體積並提升推理速度,適合資源有限設備部署。
大型語言模型
Transformers

L
Kameshr
18
9
Llama 3 8B Instruct Gradient 1048k
由Gradient開發的Llama-3 8B長上下文擴展版本,支持超過100萬token的上下文長度,通過優化RoPE theta參數實現高效長文本處理能力。
大型語言模型
Transformers 英語

L
gradientai
5,272
682
Mistral 7B Instruct V0.2 Fp8
Apache-2.0
由FriendliAI量化為FP8精度的Mistral-7B-Instruct-v0.2模型,在保持高精度的同時顯著提升推理效率。
大型語言模型
Transformers

M
FriendliAI
37
12
Gemma 1.1 2b It
Gemma是Google推出的輕量級開放模型系列,基於與Gemini相同技術構建,適用於多種文本生成任務。
大型語言模型
Transformers

G
google
71.01k
158
Mistral 7B Instruct V0.2 Sparsity 30 V0.1
Apache-2.0
Mistral-7B-Instruct-v0.2是基於Mistral-7B-Instruct-v0.1增強的指令微調大語言模型,採用Wanda剪枝方法實現30%稀疏化,無需重新訓練即可保持競爭力性能。
大型語言模型
Transformers

M
wang7776
75
1
Dpopenhermes 7B V2
Apache-2.0
DPOpenHermes 7B v2是基於OpenHermes-2.5-Mistral-7B的第二次RL微調模型,通過直接偏好優化(DPO)進行強化學習,使用了Intel/orca_dpo_pairs和allenai/ultrafeedback_binarized_cleaned偏好數據集。
大型語言模型
Transformers 英語

D
openaccess-ai-collective
30
31
Tulu 2 Dpo 7b
其他
Tulu V2 DPO 7B是基於Llama 2 7B微調的語言模型,採用直接偏好優化(DPO)方法訓練,旨在作為通用助手。
大型語言模型
Transformers 英語

T
allenai
1,702
20
Mythalion 13b
Pygmalion-2 13B與MythoMax 13B的融合模型,專注於角色扮演/聊天場景
大型語言模型
Transformers 英語

M
PygmalionAI
671
158
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98