Turkish Gemma 9b V0.1
Turkish-Gemma-9b-v0.1是基于Gemma-2-9b开发的土耳其语文本生成模型,通过持续预训练、监督微调(SFT)、直接偏好优化(DPO)和模型合并技术优化而成。
下载量 167
发布时间 : 4/18/2025
模型简介
该模型专为土耳其语文本生成任务设计,能够生成连贯且上下文相关的续写和回答。适用于对话式交互和指令遵循任务。
模型特点
土耳其语优化
专门针对土耳其语进行持续预训练和微调,优化了语言理解和生成能力。
多阶段训练
结合了持续预训练、监督微调(SFT)和直接偏好优化(DPO)等多种训练方法。
性能优异
在土耳其语评估基准中表现优异,胜率超过多个同类模型。
模型能力
土耳其语文本生成
对话式交互
指令遵循
数学问题解答
使用案例
教育
数学问题解答
解答土耳其语数学问题,如函数和方程相关题目。
能正确解答并解释数学问题,如RD(X)=X的解法。
客服
土耳其语客服对话
生成自然流畅的土耳其语客服回复。
🚀 土耳其语Gemma-9b-v0.1
土耳其语Gemma-9b-v0.1是基于Gemma-2-9b开发的模型,通过持续预训练、监督微调(SFT)、直接偏好优化(DPO)和模型合并等方法训练而成。该模型专为土耳其语文本生成任务设计,能够提供连贯且与上下文相关的续写和回答。不过,由于训练数据的多样性(包括大规模预训练语料库、指令调优数据和人类偏好数据),模型可能存在偏差,用户在使用时应予以关注并负责任地部署。
你可以在这里轻松体验模型演示(即将推出!):https://cosmos.yildiz.edu.tr/cosmosllm
为了评估模型性能,我们精心设计了一个包含1450个问题的数据集,涵盖多个不同类别。每个问题由18位人工标注员进行审核和评分,以便在多个模型之间进行可靠比较。
🚀 快速开始
模型使用示例
Transformers pipeline
import transformers
import torch
model_id = "ytu-ce-cosmos/Turkish-Gemma-9b-v0.1"
pipeline = transformers.pipeline(
"text-generation",
model=model_id,
model_kwargs={"torch_dtype": torch.bfloat16},
device_map="auto",
)
messages = [
{"role": "user", "content": "İsmi RD olan bir fonksiyon ona verilen sayının çarpmaya göre tersini döndürmektedir. Örneğin RD(3)=1/3. Buna göre RD(X)=X ifadesini doğru yapan kaç X değeri vardır?"}
]
terminators = [
pipeline.tokenizer.eos_token_id,
pipeline.tokenizer.convert_tokens_to_ids("<end_of_turn>")
]
outputs = pipeline(
messages,
max_new_tokens=512,
eos_token_id=terminators,
do_sample=True,
temperature=0.6,
top_p=0.9,
)
print(outputs[0]["generated_text"][-1])
# RD(X) = X ifadesi, bir sayının çarpmaya göre tersinin kendisiyle eşit olması anlamına gelir. Yani, X ile 1/X aynı olmalıdır. Bu durum yalnızca X'in karesi 1 olduğunda gerçekleşir:
# X² = 1
# Bu denklemin çözümleri:
# X = 1 ve X = -1
# Dolayısıyla, RD(X) = X eşitliğini sağlayan *iki* X değeri vardır: *1* ve *-1*.
Transformers AutoModelForCausalLM
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model_id = "ytu-ce-cosmos/Turkish-Gemma-9b-v0.1"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto",
)
messages = [
{"role": "user", "content": "İsmi RD olan bir fonksiyon ona verilen sayının çarpmaya göre tersini döndürmektedir. Örneğin RD(3)=1/3. Buna göre RD(X)=X ifadesini doğru yapan kaç X değeri vardır?"}
]
input_ids = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
return_tensors="pt"
).to(model.device)
terminators = [
pipeline.tokenizer.eos_token_id,
pipeline.tokenizer.convert_tokens_to_ids("<end_of_turn>")
]
outputs = model.generate(
input_ids,
max_new_tokens=512,
eos_token_id=terminators,
do_sample=False,
)
response = outputs[0][input_ids.shape[-1]:]
print(tokenizer.decode(response, skip_special_tokens=True))
# RD(X) = X ifadesi, bir sayının çarpmaya göre tersinin kendisiyle eşit olması anlamına gelir. Yani, X ile 1/X aynı olmalıdır. Bu durum yalnızca X'in karesi 1 olduğunda gerçekleşir:
# X² = 1
# Bu denklemin çözümleri:
# X = 1 ve X = -1
# Dolayısıyla, RD(X) = X eşitliğini sağlayan *iki* X değeri vardır: *1* ve *-1*.
✨ 主要特性
- 基于Gemma-2-9b:以Gemma-2-9b为基础模型进行开发。
- 多方法训练:结合持续预训练、监督微调(SFT)、直接偏好优化(DPO)和模型合并等方法。
- 土耳其语适配:专为土耳其语文本生成任务设计,能提供高质量的文本续写和回答。
📚 详细文档
🏆 模型比较:胜率
模型名称 | 胜率 |
---|---|
Qwen/Qwen3-30B-A3B | 62.39% |
gpt-4o-mini | 62.12% |
google/gemma-3-12b-it | 61.61% |
google/gemma-2-27b-it | 57.91% |
ytu-ce-cosmos/Turkish-Gemma-9b-v0.1 | 57.30% |
google/gemma-2-9b-it | 54.13% |
ytu-ce-cosmos/Turkish-Llama-8b-DPO-v0.1 | 36.89% |
投票方法
将一个问题和来自不同模型的两个答案呈现给人类评委,评委根据自己的偏好选择更好的答案。例如,在下面的问题中,评委选择了右侧的答案:
📊 土耳其语评估基准结果(通过 malhajar17/lm-evaluation-harness_turkish
)
模型名称 | 平均分 | MMLU | Truthful_QA | ARC | Hellaswag | Gsm8K | Winogrande |
---|---|---|---|---|---|---|---|
Qwen/Qwen2.5-72B-Instruct | 67.69 | 77.28 | 59.86 | 61.52 | 61.98 | 83.6 | 61.92 |
google/gemma-3-27b-it | 67.36 | 70.2 | 57.06 | 66.98 | 66.58 | 77.52 | 65.8 |
google/gemma-2-27b-it | 65.57 | 66.49 | 57.45 | 63.65 | 63.86 | 76.54 | 65.4 |
meta-llama/Llama-3-1-70B-Instruct | 63.92 | 74.00 | 51.41 | 59.64 | 64.31 | 66.13 | 66.90 |
Qwen/Qwen2.5-32B-Instruct | 63.74 | 70.93 | 57.87 | 57.00 | 57.04 | 77.83 | 61.77 |
ytu-ce-cosmos/Turkish-Gemma-9b-v0.1 | 63.31 | 63.85 | 54.21 | 59.64 | 64.19 | 73.42 | 64.53 |
google/gemma-3-12b-it | 62.94 | 63.92 | 57.16 | 60.67 | 62.00 | 72.06 | 61.77 |
Qwen/Qwen2.5-14B-it | 60.34 | 65.28 | 59.00 | 50.00 | 52.22 | 76.77 | 58.77 |
google/gemma-2-9b-it | 59.14 | 61.07 | 55.77 | 56.31 | 56.48 | 63.10 | 62.09 |
ytu-ce-cosmos/Turkish-Llama-8b-DPO-v0.1 | 55.03 | 51.97 | 57.56 | 51.02 | 52.96 | 59.87 | 57.77 |
Qwen/Qwen2.5-7B-Instruct | 53.42 | 56.31 | 55.99 | 42.06 | 44.71 | 64.16 | 59.66 |
🔧 技术细节
该模型基于Gemma-2-9b,通过持续预训练、监督微调(SFT)、直接偏好优化(DPO)和模型合并等技术进行开发。训练数据包括大规模预训练语料库、指令调优数据和人类偏好数据。
📄 许可证
许可证:gemma2
致谢
- 感谢Hugging Face团队的慷慨支持,使我们能够从他们的S3存储中下载模型 🤗
- 本研究使用的计算资源由土耳其国家高性能计算中心(UHeM)提供,资助编号为1016912023和1018512024。
联系方式
COSMOS人工智能研究小组,伊迪兹技术大学计算机工程系
https://cosmos.yildiz.edu.tr/
cosmos@yildiz.edu.tr
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型 支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型 英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型 英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型 英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型 支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型 英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型 英语
O
facebook
6.3M
198
1
基于transformers库的预训练模型,适用于多种NLP任务
大型语言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型
Transformers 支持多种语言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型 支持多种语言
T
google-t5
5.4M
702
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98