Llama 3 KafkaLM 8B V0.1
KafkaLM 8b是基於Llama3 8b模型微調而成的德語大語言模型,專注於德語商業場景應用
下載量 17
發布時間 : 4/24/2024
模型概述
基於Llama3 8b微調的德語大語言模型,旨在為德語AI社區提供高質量的德語處理能力,特別適用於僅使用英語不足以應對的德語商業場景
模型特點
德語優化
專門針對德語進行微調,在德語處理能力上優於原始Llama3模型
商業場景適用
特別適合德語商業場景應用,解決純英語模型在德語環境中的不足
高質量訓練數據
使用經過翻譯和過濾的高質量開源指令集進行訓練
模型能力
德語文本生成
英語文本生成
多輪對話
知識問答
使用案例
商業應用
德語商業文檔生成
生成符合德語商業規範的各類文檔
可生成專業、地道的德語商業文本
德語客戶服務
用於德語客戶服務場景的自動回覆
提供自然流暢的德語客戶服務對話
教育應用
德語學習輔助
幫助德語學習者練習語言表達
提供準確的德語表達示例和解釋
🚀 Llama-3-KafkaLM-8B-v0.1
KafkaLM 8b 是一個基於 Llama3 的 80 億參數模型,它在一系列流行的高質量開源指令集(從英語翻譯成德語)上進行了微調。Llama 3 KafkaLM 8b 是由 Dennis Dickmann 為 Seedbox 項目所訓練的。
為什麼叫 Kafka? 這些模型既專業又富有創造力,並且在語言表達上有突破邊界的傾向 😊
🚀 快速開始
使用該模型的入門步驟很簡單:
import transformers
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "seedboxai/Llama-3-KafkaLM-8B-v0.1"
model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.bfloat16)
tokenizer = transformers.AutoTokenizer.from_pretrained(model_id)
pipeline = transformers.pipeline(
model=model, tokenizer=tokenizer,
return_full_text=True,
task='text-generation',
device="cuda",
)
messages = [
{"role": "system", "content": "Du bist ein hilfreicher KI-Assistent."},
{"role": "user", "content": "Wer ist eigentlich dieser Kafka?"},
]
prompt = pipeline.tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
terminators = [
pipeline.tokenizer.eos_token_id,
pipeline.tokenizer.convert_tokens_to_ids("<|eot_id|>")
]
outputs = pipeline(
prompt,
max_new_tokens=max_new_tokens,
num_beams=5,
num_return_sequences=1,
early_stopping=True,
eos_token_id=terminators,
do_sample=True,
temperature=temperature,
top_p=0.9,
)
print(outputs[0]["generated_text"][len(prompt):])
<|start_header_id|>system<|end_header_id|>Du bist ein hilfreicher KI-Assistent.<|eot_id|>
<|start_header_id|>user<|end_header_id|>Wer ist eigentlich dieser Kafka?<|eot_id|>
<|start_header_id|>assistant<|end_header_id|>Franz Kafka (1883-1924) war ein tschechisch-österreichischer Schriftsteller,
der als einer der bedeutendsten Autoren des 20. Jahrhunderts gilt. Seine Werke sind geprägt von existenzieller Angst, Isolation, Verwirrung und Absurdität.
Kafka wurde in Prag, Österreich-Ungarn (heute Tschechische Republik), geboren und wuchs in einer jüdischen Familie auf.
Er studierte Rechtswissenschaften und arbeitete als Versicherungsangestellter, bevor er sich dem Schreiben zuwandte.
Kafkas literarisches Werk umfasst Romane, Erzählungen, Briefe und Tagebücher. Zu seinen bekanntesten Werken gehören "Der Prozess" (1925),
"Das Schloss" (1926) und "Die Verwandlung" (1915). Seine Geschichten sind geprägt von surrealen, traumähnlichen Szenarien,
in denen die Charaktere oft in Situationen geraten, die sie nicht verstehen oder kontrollieren können.
Kafkas Werk hat einen tiefgreifenden Einfluss auf die Literatur und Kultur des 20. Jahrhunderts gehabt.
Seine Werke wurden in viele Sprachen übersetzt und inspirierten Autoren wie Albert Camus, Jean-Paul Sartre, Samuel Beckett und Thomas Mann.
Kafka starb 1924 im Alter von 40 Jahren an Tuberkulose. Trotz seines relativ kurzen Lebens hat er einen bleibenden Eindruck auf die Literatur und Kultur hinterlassen.
✨ 主要特性
- 面向德語社區:發佈 KafkaLM 系列 的目的是為德國人工智能社區貢獻一套易於在日常各種任務應用中使用的微調大語言模型。
- 特定場景適用:主要目標是提供精通德語的大語言模型,尤其適用於僅使用英語不足夠的德語商業場景。
📚 詳細文檔
📦 安裝指南
文檔未提及安裝相關內容,暫無法提供安裝指南。
🔍 數據集
我使用了 seedboxai/multitask_german_examples_32k 的 8k 過濾版本。
💻 使用示例
基礎用法
import transformers
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "seedboxai/Llama-3-KafkaLM-8B-v0.1"
model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.bfloat16)
tokenizer = transformers.AutoTokenizer.from_pretrained(model_id)
pipeline = transformers.pipeline(
model=model, tokenizer=tokenizer,
return_full_text=True,
task='text-generation',
device="cuda",
)
messages = [
{"role": "system", "content": "Du bist ein hilfreicher KI-Assistent."},
{"role": "user", "content": "Wer ist eigentlich dieser Kafka?"},
]
prompt = pipeline.tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
terminators = [
pipeline.tokenizer.eos_token_id,
pipeline.tokenizer.convert_tokens_to_ids("<|eot_id|>")
]
outputs = pipeline(
prompt,
max_new_tokens=max_new_tokens,
num_beams=5,
num_return_sequences=1,
early_stopping=True,
eos_token_id=terminators,
do_sample=True,
temperature=temperature,
top_p=0.9,
)
print(outputs[0]["generated_text"][len(prompt):])
📄 許可證
本模型的許可證不構成法律建議。我們不對使用此模型的第三方行為負責。此模型僅應用於研究目的。原始 Llama3 許可證以及用於訓練此模型的所有數據集的限制均適用,該模型使用的許可證為 llama3。
屬性 | 詳情 |
---|---|
模型類型 | Llama3 8b 微調模型 |
訓練數據 | seedboxai/multitask_german_examples_32k 的 8k 過濾版本 |
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98