Turkish Llama 8b V0.1 GGUF
模型概述
該模型專為土耳其語文本生成任務設計,能夠以連貫且與上下文相關的方式繼續給定的文本片段。
模型特點
土耳其語優化
專門針對土耳其語進行了全面微調,提升了土耳其語文本生成質量
大容量訓練數據
使用了30GB的高質量土耳其語數據集進行訓練
連貫性生成
能夠生成與上下文連貫一致的土耳其語文本
模型能力
土耳其語文本生成
文本續寫
上下文相關文本生成
使用案例
內容創作
土耳其語文章寫作
輔助創作土耳其語文章、博客等內容
生成流暢自然的土耳其語文本
教育
土耳其語學習輔助
為土耳其語學習者提供語言練習和示例
生成符合語法規範的土耳其語例句
🚀 土耳其語-Llama-8b-v0.1-GGUF
本項目提供了 土耳其語-Llama-8b-v0.1 模型的 GGUF 格式文件。GGUF 是一種新的模型格式,支持眾多客戶端和庫,方便用戶在不同環境下使用該模型進行文本生成任務。
🚀 快速開始
下載模型文件
- 自動下載:LM Studio、LoLLMS Web UI、Faraday.dev 等客戶端/庫會自動提供可用模型列表,供你選擇下載。
- text-generation-webui 下載:在
text-generation-webui
的Download Model
中,輸入模型倉庫地址LiteLLMs/Turkish-Llama-8b-v0.1-GGUF
,並指定具體文件名,如Q4_0/Q4_0-00001-of-00009.gguf
,然後點擊Download
。 - 命令行下載:推薦使用
huggingface-hub
Python 庫,先安裝:
pip3 install huggingface-hub
然後使用以下命令下載單個模型文件到當前目錄:
huggingface-cli download LiteLLMs/Turkish-Llama-8b-v0.1-GGUF Q4_0/Q4_0-00001-of-00009.gguf --local-dir . --local-dir-use-symlinks False
運行模型
llama.cpp 命令示例
確保使用的 llama.cpp
是 d0cee0d 或更高版本。
./main -ngl 35 -m Q4_0/Q4_0-00001-of-00009.gguf --color -c 8192 --temp 0.7 --repeat_penalty 1.1 -n -1 -p "<PROMPT>"
-ngl 32
:指定卸載到 GPU 的層數,若沒有 GPU 加速可移除該參數。-c 8192
:指定所需的序列長度,對於擴展序列模型,必要的 RoPE 縮放參數會從 GGUF 文件中讀取並由 llama.cpp 自動設置。注意,更長的序列長度需要更多資源,可能需要減小該值。- 若要進行聊天式對話,將
-p <PROMPT>
參數替換為-i -ins
。
在 text-generation-webui 中運行
更多說明可參考 text-generation-webui 文檔。
從 Python 代碼運行
可以使用 llama-cpp-python 或 ctransformers 庫從 Python 中使用 GGUF 模型。建議使用 llama-cpp-python。
from llama_cpp import Llama
# Set gpu_layers to the number of layers to offload to GPU. Set to 0 if no GPU acceleration is available on your system.
llm = Llama(
model_path="./Q4_0/Q4_0-00001-of-00009.gguf", # Download the model file first
n_ctx=32768, # The max sequence length to use - note that longer sequence lengths require much more resources
n_threads=8, # The number of CPU threads to use, tailor to your system and the resulting performance
n_gpu_layers=35 # The number of layers to offload to GPU, if you have GPU acceleration available
)
# Simple inference example
output = llm(
"<PROMPT>", # Prompt
max_tokens=512, # Generate up to 512 tokens
stop=["</s>"], # Example stop token - not necessarily correct for this specific model! Please check before using.
echo=True # Whether to echo the prompt
)
# Chat Completion API
llm = Llama(model_path="./Q4_0/Q4_0-00001-of-00009.gguf", chat_format="llama-2") # Set chat_format according to the model you are using
llm.create_chat_completion(
messages = [
{"role": "system", "content": "You are a story writing assistant."},
{
"role": "user",
"content": "Write a story about llamas."
}
]
)
與 LangChain 結合使用
✨ 主要特性
- 多客戶端支持:支持眾多客戶端和庫,如 llama.cpp、text-generation-webui、Ollama 等,方便在不同環境下使用。
- GPU 加速:部分客戶端和庫支持 GPU 加速,提高模型運行效率。
- 文本生成能力:基於土耳其語數據集微調,可用於生成連貫且與上下文相關的文本。
📦 安裝指南
安裝依賴庫
下載模型文件依賴
pip3 install huggingface-hub
Python 代碼運行依賴
# Base ctransformers with no GPU acceleration
pip install llama-cpp-python
# With NVidia CUDA acceleration
CMAKE_ARGS="-DLLAMA_CUBLAS=on" pip install llama-cpp-python
# Or with OpenBLAS acceleration
CMAKE_ARGS="-DLLAMA_BLAS=ON -DLLAMA_BLAS_VENDOR=OpenBLAS" pip install llama-cpp-python
# Or with CLBLast acceleration
CMAKE_ARGS="-DLLAMA_CLBLAST=on" pip install llama-cpp-python
# Or with AMD ROCm GPU acceleration (Linux only)
CMAKE_ARGS="-DLLAMA_HIPBLAS=on" pip install llama-cpp-python
# Or with Metal GPU acceleration for macOS systems only
CMAKE_ARGS="-DLLAMA_METAL=on" pip install llama-cpp-python
# In windows, to set the variables CMAKE_ARGS in PowerShell, follow this format; eg for NVidia CUDA:
$env:CMAKE_ARGS = "-DLLAMA_OPENBLAS=on"
pip install llama-cpp-python
💻 使用示例
基礎用法
from llama_cpp import Llama
llm = Llama(model_path="./Q4_0/Q4_0-00001-of-00009.gguf", n_ctx=32768, n_threads=8, n_gpu_layers=35)
output = llm("<PROMPT>", max_tokens=512, stop=["</s>"], echo=True)
print(output)
高級用法
# Chat Completion API
from llama_cpp import Llama
llm = Llama(model_path="./Q4_0/Q4_0-00001-of-00009.gguf", chat_format="llama-2")
messages = [
{"role": "system", "content": "You are a story writing assistant."},
{"role": "user", "content": "Write a story about llamas."}
]
response = llm.create_chat_completion(messages)
print(response)
📚 詳細文檔
關於 GGUF 格式
GGUF 是 llama.cpp 團隊在 2023 年 8 月 21 日引入的新格式,用於替代不再受 llama.cpp 支持的 GGML 格式。以下是已知支持 GGUF 的客戶端和庫:
- llama.cpp:GGUF 的源項目,提供命令行界面 (CLI) 和服務器選項。
- text-generation-webui:最廣泛使用的 Web UI,功能豐富,支持 GPU 加速。
- Ollama:輕量級可擴展框架,用於在本地構建和運行語言模型。
- KoboldCpp:全面的 Web UI,支持所有平臺和架構的 GPU 加速,尤其適用於故事創作。
- GPT4All:免費開源的本地 GUI,支持 Windows、Linux 和 macOS,全 GPU 加速。
- LM Studio:適用於 Windows 和 macOS (Silicon) 的直觀強大的本地 GUI,支持 GPU 加速。
- LoLLMS Web UI:具有多種獨特功能的 Web UI,包含綜合模型庫,方便模型選擇。
- Faraday.dev:適用於 Windows 和 macOS (Silicon 和 Intel) 的美觀易用的基於角色的聊天 GUI,支持 GPU 加速。
- llama-cpp-python:配備 GPU 加速、LangChain 支持和 OpenAI 兼容 API 服務器的 Python 庫。
- candle:基於 Rust 的 ML 框架,注重性能,支持 GPU,易於使用。
- ctransformers:具有 GPU 加速、LangChain 支持和 OpenAI 兼容 AI 服務器的 Python 庫。
- localGPT:開源項目,支持與文檔進行私密對話。
量化方法說明
點擊查看詳情
新的量化方法如下: - **GGML_TYPE_Q2_K**:“type-1” 2 位量化,超級塊包含 16 個塊,每個塊有 16 個權重。塊的比例和最小值用 4 位量化,最終每個權重有效使用 2.5625 位 (bpw)。 - **GGML_TYPE_Q3_K**:“type-0” 3 位量化,超級塊包含 16 個塊,每個塊有 16 個權重。比例用 6 位量化,最終使用 3.4375 bpw。 - **GGML_TYPE_Q4_K**:“type-1” 4 位量化,超級塊包含 8 個塊,每個塊有 32 個權重。比例和最小值用 6 位量化,最終使用 4.5 bpw。 - **GGML_TYPE_Q5_K**:“type-1” 5 位量化,與 GGML_TYPE_Q4_K 具有相同的超級塊結構,最終使用 5.5 bpw。 - **GGML_TYPE_Q6_K**:“type-0” 6 位量化,超級塊有 16 個塊,每個塊有 16 個權重。比例用 8 位量化,最終使用 6.5625 bpw。🔧 技術細節
模型信息
屬性 | 詳情 |
---|---|
模型類型 | 基於 LLaMA-3 8B 模型的全微調版本 |
訓練數據 | 30GB 土耳其語數據集,包括網站、書籍和其他文本來源 |
模型侷限性
由於訓練數據的多樣性,模型可能存在偏差。用戶應意識到這些偏差,並負責任地使用模型。
📄 許可證
本項目使用 llama3 許可證。
原模型卡片:土耳其語-Llama-8b-v0.1
Cosmos LLaMa
該模型是基於 LLaMA-3 8B 模型,使用 30GB 土耳其語數據集進行全微調的版本。Cosmos LLaMa 專為文本生成任務設計,能夠以連貫且與上下文相關的方式繼續給定的文本片段。由於訓練數據的多樣性,該模型可能存在偏差,用戶應注意這些偏差並負責任地使用模型。
示例用法
在 Colab 中使用模型的示例:
!pip install -U accelerate bitsandbytes
import torch
from transformers import pipeline, AutoTokenizer, AutoModelForCausalLM
from transformers import BitsAndBytesConfig
import time
model_name = "ytu-ce-cosmos/Turkish-Llama-8b-v0.1"
bnb_config = BitsAndBytesConfig(
load_in_8bit=True,
bnb_8bit_compute_dtype=torch.bfloat16,
load_in_8bit_fp32_cpu_offload=True,
device_map = 'auto'
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
device_map="auto",
torch_dtype=torch.bfloat16,
quantization_config=bnb_config,
)
text_generator = pipeline(
"text-generation",
model=model,
tokenizer=tokenizer,
device_map="auto",
temperature=0.3,
repetition_penalty=1.1,
top_p=0.9,
max_length=610,
do_sample=True,
return_full_text=False,
min_new_tokens=32
)
text = """Yapay zeka hakkında 3 tespit yaz.\n"""
r = text_generator(text)
print(r[0]['generated_text'])
"""
1. Yapay Zeka (AI), makinelerin insan benzeri bilişsel işlevleri gerçekleştirmesini sağlayan bir teknoloji alanıdır.
2. Yapay zekanın geliştirilmesi ve uygulanması, sağlık hizmetlerinden eğlenceye kadar çeşitli sektörlerde çok sayıda fırsat sunmaktadır.
3. Yapay zeka teknolojisinin potansiyel faydaları önemli olsa da mahremiyet, işten çıkarma ve etik hususlar gibi konularla ilgili endişeler de var.
"""
致謝
- 感謝 Hugging Face 團隊的慷慨支持,使得可以從他們的 S3 存儲中下載模型 🤗
- 本工作使用的計算資源由土耳其國家高性能計算中心 (UHeM) 提供,資助編號為 1016912023 和 1018512024
- 研究得到了 Google 的 TPU 研究雲 (TRC) 的 Cloud TPU 支持
聯繫信息
COSMOS AI 研究小組,伊迪茲技術大學計算機工程系
- 網站:https://cosmos.yildiz.edu.tr/
- 郵箱:cosmos@yildiz.edu.tr
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98