Writing Model Qwen 7B
Apache-2.0
基於Qwen2.5-7B-Instruct微調的寫作評估專用模型,使用12K規模SFT數據集訓練
大型語言模型
Transformers

W
AQuarterMile
72
3
Minimax Text 01
該模型是一個文本生成模型,能夠根據輸入的提示生成連貫的文本內容。
文本生成
M
MiniMaxAI
8,231
580
Turkish Llama 8b V0.1
基於LLaMA-3 8B模型,使用30GB土耳其語數據集進行完整微調的土耳其語文本生成模型
大型語言模型
Transformers 其他

T
ytu-ce-cosmos
3,317
60
Turkish Gpt2 Large
MIT
這是一個土耳其語GPT2大模型,專為文本生成任務設計,能夠以連貫且符合上下文的方式延續給定的文本片段。
大型語言模型
Transformers 其他

T
ytu-ce-cosmos
4,642
40
Japanese Gpt 1b
MIT
由凜那株式會社訓練的13億參數日語GPT模型,專注於日語文本生成任務
大型語言模型
Transformers 支持多種語言

J
rinna
2,763
101
Gpt2 Medium Indonesian
基於印尼語的GPT-2中型預訓練模型,採用因果語言建模目標訓練,適用於印尼語文本生成任務。
大型語言模型 其他
G
flax-community
100
6
GPT J 6B Janeway
MIT
基於GPT-J 6B微調的科幻奇幻題材語言模型,擴展了20%多題材內容
大型語言模型
Transformers 英語

G
KoboldAI
3,175
13
Genji Jp
Apache-2.0
基於GPT-J 6B的日語因果語言模型,在日本網絡小說數據集上微調
大型語言模型
Transformers 支持多種語言

G
NovelAI
23
51
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98