Turkish Gemma 9b V0.1
Turkish-Gemma-9b-v0.1是基於Gemma-2-9b開發的土耳其語文本生成模型,通過持續預訓練、監督微調(SFT)、直接偏好優化(DPO)和模型合併技術優化而成。
下載量 167
發布時間 : 4/18/2025
模型概述
該模型專為土耳其語文本生成任務設計,能夠生成連貫且上下文相關的續寫和回答。適用於對話式交互和指令遵循任務。
模型特點
土耳其語優化
專門針對土耳其語進行持續預訓練和微調,優化了語言理解和生成能力。
多階段訓練
結合了持續預訓練、監督微調(SFT)和直接偏好優化(DPO)等多種訓練方法。
性能優異
在土耳其語評估基準中表現優異,勝率超過多個同類模型。
模型能力
土耳其語文本生成
對話式交互
指令遵循
數學問題解答
使用案例
教育
數學問題解答
解答土耳其語數學問題,如函數和方程相關題目。
能正確解答並解釋數學問題,如RD(X)=X的解法。
客服
土耳其語客服對話
生成自然流暢的土耳其語客服回覆。
🚀 土耳其語Gemma-9b-v0.1
土耳其語Gemma-9b-v0.1是基於Gemma-2-9b開發的模型,通過持續預訓練、監督微調(SFT)、直接偏好優化(DPO)和模型合併等方法訓練而成。該模型專為土耳其語文本生成任務設計,能夠提供連貫且與上下文相關的續寫和回答。不過,由於訓練數據的多樣性(包括大規模預訓練語料庫、指令調優數據和人類偏好數據),模型可能存在偏差,用戶在使用時應予以關注並負責任地部署。
你可以在這裡輕鬆體驗模型演示(即將推出!):https://cosmos.yildiz.edu.tr/cosmosllm
為了評估模型性能,我們精心設計了一個包含1450個問題的數據集,涵蓋多個不同類別。每個問題由18位人工標註員進行審核和評分,以便在多個模型之間進行可靠比較。
🚀 快速開始
模型使用示例
Transformers pipeline
import transformers
import torch
model_id = "ytu-ce-cosmos/Turkish-Gemma-9b-v0.1"
pipeline = transformers.pipeline(
"text-generation",
model=model_id,
model_kwargs={"torch_dtype": torch.bfloat16},
device_map="auto",
)
messages = [
{"role": "user", "content": "İsmi RD olan bir fonksiyon ona verilen sayının çarpmaya göre tersini döndürmektedir. Örneğin RD(3)=1/3. Buna göre RD(X)=X ifadesini doğru yapan kaç X değeri vardır?"}
]
terminators = [
pipeline.tokenizer.eos_token_id,
pipeline.tokenizer.convert_tokens_to_ids("<end_of_turn>")
]
outputs = pipeline(
messages,
max_new_tokens=512,
eos_token_id=terminators,
do_sample=True,
temperature=0.6,
top_p=0.9,
)
print(outputs[0]["generated_text"][-1])
# RD(X) = X ifadesi, bir sayının çarpmaya göre tersinin kendisiyle eşit olması anlamına gelir. Yani, X ile 1/X aynı olmalıdır. Bu durum yalnızca X'in karesi 1 olduğunda gerçekleşir:
# X² = 1
# Bu denklemin çözümleri:
# X = 1 ve X = -1
# Dolayısıyla, RD(X) = X eşitliğini sağlayan *iki* X değeri vardır: *1* ve *-1*.
Transformers AutoModelForCausalLM
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model_id = "ytu-ce-cosmos/Turkish-Gemma-9b-v0.1"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto",
)
messages = [
{"role": "user", "content": "İsmi RD olan bir fonksiyon ona verilen sayının çarpmaya göre tersini döndürmektedir. Örneğin RD(3)=1/3. Buna göre RD(X)=X ifadesini doğru yapan kaç X değeri vardır?"}
]
input_ids = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
return_tensors="pt"
).to(model.device)
terminators = [
pipeline.tokenizer.eos_token_id,
pipeline.tokenizer.convert_tokens_to_ids("<end_of_turn>")
]
outputs = model.generate(
input_ids,
max_new_tokens=512,
eos_token_id=terminators,
do_sample=False,
)
response = outputs[0][input_ids.shape[-1]:]
print(tokenizer.decode(response, skip_special_tokens=True))
# RD(X) = X ifadesi, bir sayının çarpmaya göre tersinin kendisiyle eşit olması anlamına gelir. Yani, X ile 1/X aynı olmalıdır. Bu durum yalnızca X'in karesi 1 olduğunda gerçekleşir:
# X² = 1
# Bu denklemin çözümleri:
# X = 1 ve X = -1
# Dolayısıyla, RD(X) = X eşitliğini sağlayan *iki* X değeri vardır: *1* ve *-1*.
✨ 主要特性
- 基於Gemma-2-9b:以Gemma-2-9b為基礎模型進行開發。
- 多方法訓練:結合持續預訓練、監督微調(SFT)、直接偏好優化(DPO)和模型合併等方法。
- 土耳其語適配:專為土耳其語文本生成任務設計,能提供高質量的文本續寫和回答。
📚 詳細文檔
🏆 模型比較:勝率
模型名稱 | 勝率 |
---|---|
Qwen/Qwen3-30B-A3B | 62.39% |
gpt-4o-mini | 62.12% |
google/gemma-3-12b-it | 61.61% |
google/gemma-2-27b-it | 57.91% |
ytu-ce-cosmos/Turkish-Gemma-9b-v0.1 | 57.30% |
google/gemma-2-9b-it | 54.13% |
ytu-ce-cosmos/Turkish-Llama-8b-DPO-v0.1 | 36.89% |
投票方法
將一個問題和來自不同模型的兩個答案呈現給人類評委,評委根據自己的偏好選擇更好的答案。例如,在下面的問題中,評委選擇了右側的答案:
📊 土耳其語評估基準結果(通過 malhajar17/lm-evaluation-harness_turkish
)
模型名稱 | 平均分 | MMLU | Truthful_QA | ARC | Hellaswag | Gsm8K | Winogrande |
---|---|---|---|---|---|---|---|
Qwen/Qwen2.5-72B-Instruct | 67.69 | 77.28 | 59.86 | 61.52 | 61.98 | 83.6 | 61.92 |
google/gemma-3-27b-it | 67.36 | 70.2 | 57.06 | 66.98 | 66.58 | 77.52 | 65.8 |
google/gemma-2-27b-it | 65.57 | 66.49 | 57.45 | 63.65 | 63.86 | 76.54 | 65.4 |
meta-llama/Llama-3-1-70B-Instruct | 63.92 | 74.00 | 51.41 | 59.64 | 64.31 | 66.13 | 66.90 |
Qwen/Qwen2.5-32B-Instruct | 63.74 | 70.93 | 57.87 | 57.00 | 57.04 | 77.83 | 61.77 |
ytu-ce-cosmos/Turkish-Gemma-9b-v0.1 | 63.31 | 63.85 | 54.21 | 59.64 | 64.19 | 73.42 | 64.53 |
google/gemma-3-12b-it | 62.94 | 63.92 | 57.16 | 60.67 | 62.00 | 72.06 | 61.77 |
Qwen/Qwen2.5-14B-it | 60.34 | 65.28 | 59.00 | 50.00 | 52.22 | 76.77 | 58.77 |
google/gemma-2-9b-it | 59.14 | 61.07 | 55.77 | 56.31 | 56.48 | 63.10 | 62.09 |
ytu-ce-cosmos/Turkish-Llama-8b-DPO-v0.1 | 55.03 | 51.97 | 57.56 | 51.02 | 52.96 | 59.87 | 57.77 |
Qwen/Qwen2.5-7B-Instruct | 53.42 | 56.31 | 55.99 | 42.06 | 44.71 | 64.16 | 59.66 |
🔧 技術細節
該模型基於Gemma-2-9b,通過持續預訓練、監督微調(SFT)、直接偏好優化(DPO)和模型合併等技術進行開發。訓練數據包括大規模預訓練語料庫、指令調優數據和人類偏好數據。
📄 許可證
許可證:gemma2
致謝
- 感謝Hugging Face團隊的慷慨支持,使我們能夠從他們的S3存儲中下載模型 🤗
- 本研究使用的計算資源由土耳其國家高性能計算中心(UHeM)提供,資助編號為1016912023和1018512024。
聯繫方式
COSMOS人工智能研究小組,伊迪茲技術大學計算機工程系
https://cosmos.yildiz.edu.tr/
cosmos@yildiz.edu.tr
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98