Gama 12b GGUF
Gama-12B是一個多語言支持的大語言模型,提供多種量化版本以適應不同性能和精度需求。
大型語言模型
Transformers 支持多種語言

G
mradermacher
185
1
Dans PersonalityEngine V1.3.0 12b Imat GGUFs
一個基於12B參數的個性化文本生成模型,專注於生成具有特定個性的文本內容。
大型語言模型
D
Casual-Autopsy
235
1
A M Team AM Thinking V1 GGUF
Apache-2.0
基於a-m-team/AM-Thinking-v1模型的Llamacpp imatrix量化版本,支持多種量化類型,適用於文本生成任務。
大型語言模型
A
bartowski
671
1
Smoothie Qwen3 8B
Apache-2.0
絲滑千問是一款輕量級調優工具,通過平滑Qwen及同類模型的token概率分佈,顯著提升多語言生成的平衡性。
大型語言模型
Transformers 英語

S
dnotitia
267
8
Qwen Qwen3 0.6B GGUF
Apache-2.0
本倉庫包含Qwen/Qwen3-0.6B的GGUF格式模型文件,由TensorBlock提供的機器進行量化處理,兼容llama.cpp。
大型語言模型
Q
tensorblock
905
3
Open Thoughts OpenThinker2 32B GGUF
Apache-2.0
OpenThinker2-32B的量化版本,使用llama.cpp進行imatrix量化,支持多種量化類型,適用於文本生成任務。
大型語言模型
O
bartowski
1,332
10
Minimax Text 01
該模型是一個文本生成模型,能夠根據輸入的提示生成連貫的文本內容。
文本生成
M
MiniMaxAI
8,231
580
Llama 3 8B Instruct
基於Llama-3-8B優化的北歐語言指令微調模型,支持瑞典語、丹麥語和挪威語
大型語言模型
Transformers 其他

L
AI-Sweden-Models
570
12
Mistral Evolved 11b V0.1 GGUF
Apache-2.0
Mistral-Evolved-11b-v0.1的量化版本,使用llama.cpp進行量化,提供多種量化選項以適應不同需求。
大型語言模型
M
bartowski
1,761
7
Mamba 1.4b Hf
Mamba是基於狀態空間模型(SSM)架構的高效語言模型,具有1.4B參數規模,支持文本生成任務
大型語言模型
Transformers

M
state-spaces
5,431
11
Mistral 7B Instruct V0.2 Turkish GGUF
Apache-2.0
這是一個基於Mistral-7B-Instruct-v0.2微調的土耳其語文本生成模型,支持土耳其語和英語。
大型語言模型 支持多種語言
M
sayhan
336
9
Zephyr 7B Beta AWQ
MIT
Zephyr 7B Beta是基於Hugging Face H4的Mistral架構的7B參數模型,經過AWQ量化優化,適用於高效的推理任務。
大型語言模型
Transformers 英語

Z
TheBloke
1,728
39
Chatgpt Prompt Generator V12
Apache-2.0
基於BART-large微調的ChatGPT提示生成模型,用於根據角色描述生成對應的ChatGPT角色設定
大型語言模型
Transformers

C
merve
80
72
Chatgpt Prompts Bart Long
Apache-2.0
基於BART-large微調的ChatGPT角色提示生成模型,可自動生成角色設定文本
大型語言模型
Transformers

C
merve
98
56
Multilingual Minilm Amazon Massive Intent
MIT
基於Microsoft Multilingual-MiniLM模型在MASSIVE數據集上微調的意圖分類模型,支持多語言理解
文本分類
Transformers 支持多種語言

M
cartesinus
32
5
Sbert Synonymy
基於sentence-transformers的模型,主要用於檢測兩個短文本(通常是10-15個單詞的單句)的同義性。
文本嵌入
Transformers 其他

S
inkoziev
288
8
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98