Teenytinyllama 160m GGUF
TeenyTinyLlama-160m是一個針對巴西葡萄牙語優化的微型語言模型,參數規模為1.6億,專注於低資源語言研究。
下載量 148
發布時間 : 5/12/2024
模型概述
該模型是基於Transformer架構的因果語言模型,主要用於巴西葡萄牙語文本生成任務。它是為研究低資源語言模型開發挑戰而設計的實驗性模型。
模型特點
低資源語言優化
專門針對巴西葡萄牙語訓練,填補了低資源語言模型的空白
高效訓練
僅使用單塊NVIDIA A100 GPU訓練約36小時,碳排放量僅為5.6千克CO2
開源透明
完整公開訓練代碼和過程,便於研究和復現
輕量級
僅1.6億參數的小型模型,適合研究和實驗用途
模型能力
葡萄牙語文本生成
文本補全
語言理解
使用案例
教育
ENEM考試題目生成
生成巴西國家中等教育考試(ENEM)風格的題目
準確率19.24%
OAB法律考試輔助
生成巴西律師資格考試相關題目
準確率22.37%
內容審核
仇恨言論檢測
識別葡萄牙語中的仇恨言論
F1宏平均36.92-42.63
語言理解
文本蘊含識別
判斷兩個葡萄牙語句子之間的邏輯關係
F1宏平均53.97
語義相似度計算
計算兩個葡萄牙語句子的語義相似度
皮爾遜係數0.24
🚀 TeenyTinyLlama-160m-GGUF
本項目提供了來自 nicholasKluge 的 TeenyTinyLlama-160m 模型的量化 GGUF 格式文件。該模型在自然語言處理領域,尤其是巴西葡萄牙語的文本生成任務上具有重要價值,為低資源語言的語言模型研究提供了新的思路和工具。
📦 模型信息
屬性 | 詳情 |
---|---|
基礎模型 | nicholasKluge/TeenyTinyLlama-160m |
二氧化碳排放量 | 排放量為 5.6 KgCO2,地理位置為德國,使用的硬件為 NVIDIA A100 - SXM4 - 40GB,數據來源為 CodeCarbon,訓練類型為預訓練 |
數據集 | nicholasKluge/Pt - Corpus - Instruct |
推理功能 | 支持推理 |
語言 | 葡萄牙語 |
庫名稱 | transformers |
許可證 | apache - 2.0 |
評估指標 | 困惑度 |
📊 模型評估結果
數據集 | 任務 | 指標 | 值 | 來源 |
---|---|---|---|---|
ENEM Challenge (No Images) | 文本生成 | 準確率 | 19.24 | Open Portuguese LLM Leaderboard |
BLUEX (No Images) | 文本生成 | 準確率 | 23.09 | Open Portuguese LLM Leaderboard |
OAB Exams | 文本生成 | 準確率 | 22.37 | Open Portuguese LLM Leaderboard |
Assin2 RTE | 文本生成 | f1 - macro | 53.97 | Open Portuguese LLM Leaderboard |
Assin2 STS | 文本生成 | pearson | 0.24 | Open Portuguese LLM Leaderboard |
FaQuAD NLI | 文本生成 | f1 - macro | 43.97 | Open Portuguese LLM Leaderboard |
HateBR Binary | 文本生成 | f1 - macro | 36.92 | Open Portuguese LLM Leaderboard |
PT Hate Speech Binary | 文本生成 | f1 - macro | 42.63 | Open Portuguese LLM Leaderboard |
tweetSentBR | 文本生成 | f1 - macro | 11.39 | Open Portuguese LLM Leaderboard |
✨ 主要特性
- 針對性設計:為巴西葡萄牙語文本生成量身打造,解決了多語言模型在葡萄牙語上表現不佳的問題。
- 輕量級模型:參數規模相對較小,降低了計算需求和資源消耗。
- 高效訓練:訓練時間短,能源消耗低,碳排放少。
🚀 快速開始
基礎信息
- 架構:基於 Transformer 的模型,通過因果語言建模進行預訓練。
- 規模:162,417,408 個參數。
- 上下文長度:2048 個標記。
- 數據集:[Pt - Corpus Instruct](https://huggingface.co/datasets/nicholasKluge/Pt - Corpus - Instruct)(62 億個標記)。
- 語言:葡萄牙語。
- 訓練步數:458,000 步。
- GPU:1 塊 NVIDIA A100 - SXM4 - 40GB。
- 訓練時間:約 36 小時。
- 排放量:5.6 KgCO2(德國)。
- 總能耗:15.5 kWh。
代碼示例
使用 pipeline
from transformers import pipeline
generator = pipeline("text-generation", model="nicholasKluge/TeenyTinyLlama-160m")
completions = generator("Astronomia é a ciência", num_return_sequences=2, max_new_tokens=100)
for comp in completions:
print(f"🤖 {comp['generated_text']}")
使用 AutoTokenizer
和 AutoModelForCausalLM
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
# 加載模型和分詞器
tokenizer = AutoTokenizer.from_pretrained("nicholasKluge/TeenyTinyLlama-160m", revision='main')
model = AutoModelForCausalLM.from_pretrained("nicholasKluge/TeenyTinyLlama-160m", revision='main')
# 將模型移動到設備上
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model.eval()
model.to(device)
# 對輸入進行分詞並移動到設備上
inputs = tokenizer("Astronomia é a ciência", return_tensors="pt").to(device)
# 生成文本
completions = model.generate(**inputs, num_return_sequences=2, max_new_tokens=100)
# 打印生成的文本
for i, completion in enumerate(completions):
print(f'🤖 {tokenizer.decode(completion)}')
🔧 技術細節
訓練過程
在訓練過程中,模型在多個指標上表現出了良好的收斂性,評估曲線未出現過擬合或飽和的跡象。研究人員推測模型可能處於欠訓練狀態,進一步訓練可能會提高性能。
評估指標
處理的標記數 | 困惑度 | 能耗 (kWh) | 排放量 (KgCO2eq) |
---|---|---|---|
810 萬 | 20.49 | 9.40 | 3.34 |
16 億 | 16.90 | 18.82 | 6.70 |
24 億 | 15.43 | 28.59 | 10.16 |
32 億 | 14.64 | 38.20 | 13.57 |
40 億 | 14.08 | 48.04 | 17.07 |
49 億 | 13.61 | 57.74 | 20.52 |
57 億 | 13.25 | 67.32 | 23.92 |
65 億 | 12.87 | 76.84 | 27.30 |
73 億 | 12.57 | 86.40 | 30.70 |
81 億 | 12.27 | 96.19 | 34.18 |
90 億 | 11.96 | 106.06 | 37.70 |
98 億 | 11.77 | 115.69 | 41.31 |
基準測試
在多個基準測試中,模型與其他同類模型進行了比較,展示了其在巴西葡萄牙語任務上的性能。
通用基準測試
模型 | ARC | HellaSwag | MMLU | TruthfulQA | 平均 |
---|---|---|---|---|---|
Pythia - 410m | 24.83* | 41.29* | 25.99* | 40.95* | 33.26 |
TTL - 460m | 29.40 | 33.00 | 28.55 | 41.10 | 33.01 |
Bloom - 560m | 24.74* | 37.15* | 24.22* | 42.44* | 32.13 |
Xglm - 564M | 25.56 | 34.64* | 25.18* | 42.53 | 31.97 |
OPT - 350m | 23.55* | 36.73* | 26.02* | 40.83* | 31.78 |
TTL - 160m | 26.15 | 29.29 | 28.11 | 41.12 | 31.16 |
Pythia - 160m | 24.06* | 31.39* | 24.86* | 44.34* | 31.16 |
OPT - 125m | 22.87* | 31.47* | 26.02* | 42.87* | 30.80 |
GPorTuguese - 2 | 22.48 | 29.62 | 27.36 | 41.44 | 30.22 |
Gpt2 - small | 21.48* | 31.60* | 25.79* | 40.65* | 29.97 |
Multilingual GPT | 23.81 | 26.37* | 25.17* | 39.62 | 28.73 |
巴西葡萄牙語基準測試
模型 | ASSIN2 RTE | ASSIN2 STS | BLUEX | ENEM | FAQUAD NLI | HateBR | OAB Exams | 平均 |
---|---|---|---|---|---|---|---|---|
Qwen - 1.8B | 64.83 | 19.53 | 26.15 | 30.23 | 43.97 | 33.33 | 27.20 | 35.03 |
TinyLlama - 1.1B | 58.93 | 13.57 | 22.81 | 22.25 | 43.97 | 36.92 | 23.64 | 31.72 |
TTL - 460m | 53.93 | 12.66 | 22.81 | 19.87 | 49.01 | 33.59 | 27.06 | 31.27 |
XGLM - 564m | 49.61 | 22.91 | 19.61 | 19.38 | 43.97 | 33.99 | 23.42 | 30.41 |
Bloom - 1b7 | 53.60 | 4.81 | 21.42 | 18.96 | 43.97 | 34.89 | 23.05 | 28.67 |
TTL - 160m | 53.36 | 2.58 | 21.84 | 18.75 | 43.97 | 36.88 | 22.60 | 28.56 |
OPT - 125m | 39.77 | 2.00 | 21.84 | 17.42 | 43.97 | 47.04 | 22.78 | 27.83 |
Pythia - 160 | 33.33 | 12.81 | 16.13 | 16.66 | 50.36 | 41.09 | 22.82 | 27.60 |
OLMo - 1b | 34.12 | 9.28 | 18.92 | 20.29 | 43.97 | 41.33 | 22.96 | 27.26 |
Bloom - 560m | 33.33 | 8.48 | 18.92 | 19.03 | 43.97 | 37.07 | 23.05 | 26.26 |
Pythia - 410m | 33.33 | 4.80 | 19.47 | 19.45 | 43.97 | 33.33 | 23.01 | 25.33 |
OPT - 350m | 33.33 | 3.65 | 20.72 | 17.35 | 44.71 | 33.33 | 23.01 | 25.15 |
GPT - 2 small | 33.26 | 0.00 | 10.43 | 11.20 | 43.52 | 33.68 | 13.12 | 20.74 |
GPorTuguese | 33.33 | 3.85 | 14.74 | 3.01 | 28.81 | 33.33 | 21.23 | 19.75 |
Samba - 1.1B | 33.33 | 1.30 | 8.07 | 10.22 | 17.72 | 35.79 | 15.03 | 17.35 |
微調比較
對模型進行了微調實驗,並與 [BERTimbau](https://huggingface.co/neuralmind/bert - base - portuguese - cased) 模型進行了比較。
模型 | IMDB | FaQuAD - NLI | HateBr | Assin2 | AgNews | 平均 |
---|---|---|---|---|---|---|
BERTimbau - large | 93.58 | 92.26 | 91.57 | 88.97 | 94.11 | 92.10 |
BERTimbau - small | 92.22 | 93.07 | 91.28 | 87.45 | 94.19 | 91.64 |
TTL - 460m | 91.64 | 91.18 | 92.28 | 86.43 | 94.42 | 91.19 |
TTL - 160m | 91.14 | 90.00 | 90.71 | 85.78 | 94.05 | 90.34 |
⚠️ 重要提示
- 幻覺問題:模型可能會生成看似真實但實際上具有誤導性或完全錯誤的內容。
- 偏見和毒性:由於訓練數據的原因,模型可能會生成包含社會和歷史刻板印象的有毒內容。
- 代碼可靠性:模型生成的代碼片段和語句可能不正確,不能作為準確的解決方案。
- 語言限制:模型主要設計用於理解標準巴西葡萄牙語,對其他語言的理解可能存在困難。
- 重複和冗長:模型可能會陷入重複循環或生成與提示無關的冗長響應。
建議用戶在將模型用於實際應用時進行風險分析,並在與用戶交互的應用中對模型輸出進行人工審核。
📄 許可證
本模型採用 Apache 2.0 許可證。有關詳細信息,請參閱 LICENSE 文件。
📖 引用信息
@misc{correa24ttllama,
title = {TeenyTinyLlama: open - source tiny language models trained in Brazilian Portuguese},
author = {Corr{\^e}a, Nicholas Kluge and Falk, Sophia and Fatimah, Shiza and Sen, Aniket and De Oliveira, Nythamar},
journal = {arXiv preprint arXiv:2401.16640},
year = {2024}
}
💡 使用建議
- 在使用模型進行文本生成時,合理設置重複懲罰參數,以避免出現重複循環的問題。
- 對於重要的應用場景,建議對模型輸出進行人工審核,以確保內容的準確性和可靠性。
- 如果需要進一步提高模型性能,可以考慮對模型進行微調。
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98