Generationturkishgpt2 Final
Apache-2.0
基於GPT2微調的土耳其語文本生成模型,適用於自然語言處理和聊天機器人等場景
大型語言模型
Safetensors 其他
G
iamseyhmus7
131
1
Turkish Deepseek
Apache-2.0
基於DeepSeek架構,在土耳其語文本上訓練的語言模型,包含多頭潛在注意力(MLA)和專家混合(MoE)技術。
大型語言模型
Transformers 其他

T
alibayram
106
1
Ytu Ce Cosmos.turkish Gemma 9b V0.1 GGUF
一個基於Gemma架構的土耳其語大語言模型,專注於文本生成任務。
大型語言模型
Y
DevQuasar
247
1
Turkish Gemma 9b V0.1
Turkish-Gemma-9b-v0.1是基於Gemma-2-9b開發的土耳其語文本生成模型,通過持續預訓練、監督微調(SFT)、直接偏好優化(DPO)和模型合併技術優化而成。
大型語言模型
Safetensors
T
ytu-ce-cosmos
167
18
Gemma 2 9b Turkish Lora Continue Pre Trained
基於google/gemma-2-9b基礎模型,使用土耳其語維基百科數據繼續預訓練的LoRA適配模型,提升土耳其文本處理能力
大型語言模型 其他
G
emre
82
4
TURNA GGUF
其他
TURNA是一個土耳其語編碼器-解碼器語言模型,專注於增強理解和生成能力。
大型語言模型
Transformers

T
helizac
159
3
Turkish Llama 8b V0.1 GGUF
Turkish-Llama-8b-v0.1是基於LLaMA-3 8B模型完全微調的土耳其語文本生成模型,使用了30GB土耳其語數據集訓練。
大型語言模型 其他
T
LiteLLMs
108
2
Turkish Llama 8b V0.1
基於LLaMA-3 8B模型,使用30GB土耳其語數據集進行完整微調的土耳其語文本生成模型
大型語言模型
Transformers 其他

T
ytu-ce-cosmos
3,317
60
Cymist2 V01 SFT
Apache-2.0
Cymist2-v0.1是由Cypien AI團隊開發的先進語言模型,專為土耳其語和英語的文本生成任務優化,支持檢索增強生成(RAG)和監督微調(SFT)。
大型語言模型
Transformers 支持多種語言

C
cypienai
2,729
2
Mixtral 8x7B V0.1 Turkish GGUF
Apache-2.0
基於特定土耳其語數據集微調的模型,能夠以土耳其語準確回答信息,為土耳其語相關的文本生成任務提供了強大支持。
大型語言模型
Transformers 支持多種語言

M
sayhan
180
3
Turkish Gpt2 Large
MIT
這是一個土耳其語GPT2大模型,專為文本生成任務設計,能夠以連貫且符合上下文的方式延續給定的文本片段。
大型語言模型
Transformers 其他

T
ytu-ce-cosmos
4,642
40
Turkish Gpt2 Medium
MIT
這是一個專為土耳其語設計的GPT-2中型文本生成模型,能夠根據給定文本片段進行連貫續寫。
大型語言模型
Transformers

T
ytu-ce-cosmos
882
9
TURNA
其他
TURNA是一個基於UL2框架的土耳其語言模型,適用於理解和生成任務,在多項土耳其語任務中表現優異。
大型語言模型
Transformers 其他

T
boun-tabi-LMG
187
75
Kanarya 750m
Apache-2.0
金絲雀-750M是一個預訓練的土耳其語GPT-J 750M模型,屬於土耳其數據倉庫計劃的一部分。
大型語言模型 其他
K
asafaya
2,749
10
Turkish Gpt 2
基於土耳其語維基語料庫訓練的GPT-2模型,適用於土耳其語文本生成任務。
大型語言模型
T
adresgezgini
30
2
Gpt2 Turkish Writer
Apache-2.0
這是一個基於GPT2-Small架構微調的土耳其語文本生成模型,專門針對土耳其語文學創作進行了優化訓練。
大型語言模型 其他
G
gorkemgoknar
75
11
Gpt2 Small Turkish
Apache-2.0
這是一個基於GPT2-Small英語模型的微調版本,使用土耳其語維基百科文章進行訓練,適用於土耳其語文本生成任務。
大型語言模型 其他
G
gorkemgoknar
545
10
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98