Generationturkishgpt2 Final
Apache-2.0
基于GPT2微调的土耳其语文本生成模型,适用于自然语言处理和聊天机器人等场景
大型语言模型
Safetensors 其他
G
iamseyhmus7
131
1
Turkish Deepseek
Apache-2.0
基于DeepSeek架构,在土耳其语文本上训练的语言模型,包含多头潜在注意力(MLA)和专家混合(MoE)技术。
大型语言模型
Transformers 其他

T
alibayram
106
1
Ytu Ce Cosmos.turkish Gemma 9b V0.1 GGUF
一个基于Gemma架构的土耳其语大语言模型,专注于文本生成任务。
大型语言模型
Y
DevQuasar
247
1
Turkish Gemma 9b V0.1
Turkish-Gemma-9b-v0.1是基于Gemma-2-9b开发的土耳其语文本生成模型,通过持续预训练、监督微调(SFT)、直接偏好优化(DPO)和模型合并技术优化而成。
大型语言模型
Safetensors
T
ytu-ce-cosmos
167
18
Gemma 2 9b Turkish Lora Continue Pre Trained
基于google/gemma-2-9b基础模型,使用土耳其语维基百科数据继续预训练的LoRA适配模型,提升土耳其文本处理能力
大型语言模型 其他
G
emre
82
4
TURNA GGUF
其他
TURNA是一个土耳其语编码器-解码器语言模型,专注于增强理解和生成能力。
大型语言模型
Transformers

T
helizac
159
3
Turkish Llama 8b V0.1 GGUF
Turkish-Llama-8b-v0.1是基于LLaMA-3 8B模型完全微调的土耳其语文本生成模型,使用了30GB土耳其语数据集训练。
大型语言模型 其他
T
LiteLLMs
108
2
Turkish Llama 8b V0.1
基于LLaMA-3 8B模型,使用30GB土耳其语数据集进行完整微调的土耳其语文本生成模型
大型语言模型
Transformers 其他

T
ytu-ce-cosmos
3,317
60
Cymist2 V01 SFT
Apache-2.0
Cymist2-v0.1是由Cypien AI团队开发的先进语言模型,专为土耳其语和英语的文本生成任务优化,支持检索增强生成(RAG)和监督微调(SFT)。
大型语言模型
Transformers 支持多种语言

C
cypienai
2,729
2
Mixtral 8x7B V0.1 Turkish GGUF
Apache-2.0
基于特定土耳其语数据集微调的模型,能够以土耳其语准确回答信息,为土耳其语相关的文本生成任务提供了强大支持。
大型语言模型
Transformers 支持多种语言

M
sayhan
180
3
Turkish Gpt2 Large
MIT
这是一个土耳其语GPT2大模型,专为文本生成任务设计,能够以连贯且符合上下文的方式延续给定的文本片段。
大型语言模型
Transformers 其他

T
ytu-ce-cosmos
4,642
40
Turkish Gpt2 Medium
MIT
这是一个专为土耳其语设计的GPT-2中型文本生成模型,能够根据给定文本片段进行连贯续写。
大型语言模型
Transformers

T
ytu-ce-cosmos
882
9
TURNA
其他
TURNA是一个基于UL2框架的土耳其语言模型,适用于理解和生成任务,在多项土耳其语任务中表现优异。
大型语言模型
Transformers 其他

T
boun-tabi-LMG
187
75
Kanarya 750m
Apache-2.0
金丝雀-750M是一个预训练的土耳其语GPT-J 750M模型,属于土耳其数据仓库计划的一部分。
大型语言模型 其他
K
asafaya
2,749
10
Gpt2 Small Turkish
Apache-2.0
这是一个基于GPT2-Small英语模型的微调版本,使用土耳其语维基百科文章进行训练,适用于土耳其语文本生成任务。
大型语言模型 其他
G
gorkemgoknar
545
10
Gpt2 Turkish Writer
Apache-2.0
这是一个基于GPT2-Small架构微调的土耳其语文本生成模型,专门针对土耳其语文学创作进行了优化训练。
大型语言模型 其他
G
gorkemgoknar
75
11
Turkish Gpt 2
基于土耳其语维基语料库训练的GPT-2模型,适用于土耳其语文本生成任务。
大型语言模型
T
adresgezgini
30
2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98