Qwen3 30B A3B Python Coder
基於Qwen/Qwen3-30B-A3B微調的Python編程專用模型,專注於代碼生成任務
大型語言模型
Transformers

Q
burtenshaw
64
5
JEE 14B
該模型是基於Qwen2.5-14B-Instruct微調而來的文本生成模型,使用TRL庫進行訓練。
大型語言模型
Transformers

J
ruh-ai
475
4
Z1 7B
MIT
Z1是一個基於Qwen2.5-Coder-7B-Instruct的大語言模型,專注於通過思維遷移進行高效推理。
大型語言模型
Transformers

Z
efficientscaling
125
18
ABEJA QwQ32b Reasoning Japanese V1.0
Apache-2.0
基於Qwen2.5-32B-Instruct開發的日語推理模型,融合了QwQ-32B的ChatVector,優化了日語推理性能。
大型語言模型
Transformers 日語

A
abeja
583
10
Qwen2.5 14B CIC ACLARC
Apache-2.0
基於Qwen 2.5 14B Instruct微調的引文意圖分類模型,專門用於科學出版物中的引文意圖分類。
文本分類
Transformers 英語

Q
sknow-lab
24
2
Llm2vec Meta Llama 31 8B Instruct Mntp
MIT
LLM2Vec是一種將僅解碼器的大語言模型轉換為文本編碼器的簡單方法,通過啟用雙向注意力、掩碼下一詞預測和無監督對比學習實現。
文本嵌入
Transformers 英語

L
McGill-NLP
386
2
Minicpm Reranker
MiniCPM-重排序器是由面壁智能與清華大學自然語言處理實驗室、東北大學信息檢索小組聯合研發的中英雙語文本重排序模型,具備卓越的中英文及跨語言重排序能力。
大型語言模型
Transformers 支持多種語言

M
openbmb
1,104
27
Chameleon 7B Mgpt
Chameleon-7b是基於Lumina-mGPT倉庫轉換的檢查點模型,旨在簡化模型初始化過程。
大型語言模型
Transformers

C
Alpha-VLLM
129
4
Videollama2 7B 16F Base
Apache-2.0
VideoLLaMA 2 是一個多模態大語言模型,專注於提升視頻理解中的時空建模與音頻理解能力。
文本生成視頻
Transformers 英語

V
DAMO-NLP-SG
64
2
Chemvlm 26B
MIT
ChemVLM是一個多模態大語言模型,專注於化學領域的應用,結合了文本和圖像處理能力。
圖像生成文本
Transformers

C
AI4Chem
53
21
EEVE Korean Instruct 10.8B V1.0 Grade Retrieval
Apache-2.0
該模型是基於EEVE-韓語指導-10.8B-v1.0微調的,用於評估RAG(檢索增強生成)中針對問題的檢索上下文是否正確,並以'是'或'否'回答。
大型語言模型
Transformers 韓語

E
sinjy1203
1,764
2
Sanguoyanyi 6b
其他
基於Yi-6b微調的文本風格遷移模型,能夠將輸入文本改寫為《三國演義》的文學風格
大型語言模型
Transformers 中文

S
stylellm
16
2
Clickbaitfighter 10B
基於NoticIA數據集微調的西班牙語標題黨新聞摘要生成模型,能揭示聳動標題背後的真實內容
大型語言模型
Transformers 西班牙語

C
Iker
48
0
Oneke
OneKE是由螞蟻集團與浙江大學聯合研發的雙語大語言模型,專注於知識抽取任務,支持中英文多領域信息抽取。
大型語言模型
Transformers 支持多種語言

O
zjunlp
317
42
Biobart PET Impression
基於BioBART模型微調的PET報告自動印象生成模型,用於從PET檢查發現中生成個性化的臨床印象。
大型語言模型
Transformers 英語

B
xtie
18
0
Polyglot Ko 5.8b Chat
基於EleutherAI/polyglot-ko-5.8b模型,使用多個韓語指令數據集進行訓練的聊天模型
大型語言模型
Transformers 韓語

P
heegyu
1,797
4
Coedit Xxl
CoEdIT-xxl是基於google/flan-t5-xxl模型微調的大型文本編輯模型,專門用於根據指令進行文本修訂任務。
大型語言模型
Transformers 英語

C
grammarly
180
31
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98