Mistral 7B V0.1 Flashback V2
A pre-trained continuation model based on Mistral-7B-v0.1, fine-tuned with 40GB of text data from the Swedish forum Flashback, supporting multilingual generation.
Downloads 98
Release Time : 12/4/2023
Model Overview
This is a conversational text generation model focused on Nordic languages (Swedish, Norwegian, Danish) and English text generation, suitable for forum-style dialogue simulation and creative writing.
Model Features
Nordic language optimization
Specially optimized for Nordic languages like Swedish, ideal for handling forum-style dialogue texts.
Dialogue coherence
Capable of generating contextually coherent multi-turn dialogues, mimicking real forum discussion patterns.
Quoted reply generation
Supports generating forum-style dialogue structures with quoted replies.
Model Capabilities
Multilingual text generation
Dialogue simulation
Creative writing
Forum-style response generation
Use Cases
Content generation
Forum dialogue simulation
Generate dialogue content simulating real forum discussions.
Can generate complete discussion threads including titles, user replies, and quoted structures.
Creative writing assistance
Assist with creative writing in Nordic languages.
Generate creative texts with Nordic language characteristics.
Education and research
Language learning tool
Serve as an auxiliary tool for learning Nordic languages like Swedish.
đ đâ⏠Mistral-7B-v0.1-flashback-v2
Mistral-7B-v0.1-flashback-v2 is a model that continues the pretraining of the base Mistral-7B-v0.1 model, leveraging a large amount of text data from a Swedish forum. It offers capabilities in text generation and has been evaluated on multiple benchmarks.
đ Quick Start
Model Information
Mistral-7B-v0.1-flashback-v2 is a continuation of the pretraining process for the base Mistral-7B-v0.1 model. It utilizes 2,251,233 forum threads from the Swedish website https://www.flashback.org/, which is roughly 40GB of text. It is a full finetune for one epoch.
How to Use
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "timpal0l/Mistral-7B-v0.1-flashback-v2"
device = "cuda:0" if torch.cuda.is_available() else "cpu"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
model.eval()
model.to(device)
prompt = "Idag Àr det den bÀsta"
input_ids = tokenizer(prompt, return_tensors="pt")["input_ids"].to(device)
generated_token_ids = model.generate(
inputs=input_ids,
max_new_tokens=256,
do_sample=True,
temperature=0.8,
top_p=1,
)[0]
generated_text = tokenizer.decode(generated_token_ids)
generated_text
<s> Idag Àr det den bÀsta dagen i hela veckan, för nu tar det slut!\n\n>! GnÀllfesten!\n\nJag sitter hÀr, oerhört förvirrad, och försöker förstÄ varför vi ens mÄste fortsÀtta att existera efter döden. Jag menar, jag förstÄr ju egentligen att det aldrig kan ta slut, eller inte "ta slut" i den bemÀrkelsen att materian försvinner, men det Àr inte det jag pratar om.\n\nDöden, det faktum att man dör och aldrig kan uppleva livet igen. Det som Àr liv och ger livet en mening, det försvinner i döden. Och sen börjas det om, om och om igen. Varför behöver vi sÄ mÄnga liv? Vi Àr ju inte ens medvetna av att vi nÄgonsin har levt, sÄ varför ska vi komma hit och bli medvetna hela tiden?\n\nDet hÀr Àr en sÄdan frÄga som jag aldrig kan fÄ
đ» Usage Examples
Basic Usage
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "timpal0l/Mistral-7B-v0.1-flashback-v2"
device = "cuda:0" if torch.cuda.is_available() else "cpu"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
model.eval()
model.to(device)
prompt = "Idag Àr det den bÀsta"
input_ids = tokenizer(prompt, return_tensors="pt")["input_ids"].to(device)
generated_token_ids = model.generate(
inputs=input_ids,
max_new_tokens=256,
do_sample=True,
temperature=0.8,
top_p=1,
)[0]
generated_text = tokenizer.decode(generated_token_ids)
generated_text
đ Documentation
Data Format
To mimic the data format used in pre-training it has the following structure:
# Thread_Title
username_thread_creator:
Hello, this is my thread...
username_user_1:
This is a response to the thread, without qouting anything.
username_user_2:
> username_user_1: This is a response to the thread, without qouting anything.
I am now quoting username_user_1...
Random training sample
# Tips om aktiviter och sevÀrdheter i Stockholm för nÄgon med funktionsnedsÀttning
Roozbeh:
Hej!
Jag jobbar som assistent Ät en kille pÄ ett stödboende.
NÀsta vecka Äker han, jag och en kollega till Stockholm och han Àr superpeppad pÄ att se sig omkring.
Har ni nÄgra guld tips?
FÄr gÀrna ge förslag bÄde dag och kvÀllstid om ni kommer pÄ nÄgot.
Vi har redan tÀnkt pÄ att se slottet.
Och gamla staden, finns dÀr nÄgot kanske?
Bra cafen/restauranger som inte Àr allt för dyra.
NÄgra stÀllen som man bara mÄste se eller göra i Stockholm?
Han Àr inte rullstolsbunden ska nÀmnas, Àr ung och i ganska bra kondition fysiskt.
Alla tips Àr vÀlkomna tack!
Annéa:
Beror lite pÄ vad man gillar. Om ni ÀndÄ Àr vi Slottet sÄ har ni ju dom stora turistgatorna i Gamla Stan runt hörnet precis, dock inget stÀlle man vill gÄ pÄ om man tycker det Àr jobbigt med folk och att trÀngas och ingenstans dÀr man Àter sÀrskilt bra eller billigt.
Laust:
Ă
ka upp pÄ globen funkar med rullstol
Thomaz:
VĂ€lkomna! đ
Vad har han för intressen?
Ăr ni Ă€ndĂ„ pĂ„ slottet kan jag rekommendera livrustkammaren, dĂ€r klĂ€der och attiraljer sĂ„som vagnar (och Ă€ven uppstoppade hĂ€star) frĂ„n svenska kungligheter Ă€r utstĂ€llda.
Anne-Jorunn:
Gröna Lund och skansen Àr guld, om hen klarar av att Äka karusell sÄ gÄr ni ocksÄ förbi alla köer om du Àr stödperson.
Abba museumet, Vasamuseumet, militÀrhistoriska museet, tekniska museet, Junibacken. Finns mycket bra.
Annars kan det vara skoj att gÄ runt pÄ Mall of Scandinavia, skönt att vara inne med toaletter inom rÀckhÄll.
Muscab:
> Roozbeh: Hej!
>
> Jag jobbar som assistent Ät en kille pÄ ett stödboende.
> NÀsta vecka Äker han, jag och en kollega till Stockholm och han Àr superpeppad pÄ att se sig omkring.
> Har ni nÄgra guld tips?
> FÄr gÀrna ge förslag bÄde dag och kvÀllstid om ni kommer pÄ nÄgot.
> Vi har redan tÀnkt pÄ att se slottet.
> Och gamla staden, finns dÀr nÄgot kanske?
> Bra cafen/restauranger som inte Àr allt för dyra.
> NÄgra stÀllen som man bara mÄste se eller göra i Stockholm?
> Han Àr inte rullstolsbunden ska nÀmnas, Àr ung och i ganska bra kondition fysiskt.
> Alla tips Àr vÀlkomna tack!
Jag tror de mesta platser Àr ganska ovÀnliga för rullstol. Backar, grusvÀgar, kullersten, trÄnga dörrar, trappor. Finns det nÄgon restaurang/café som Àr billig och rullstolsvÀnlig? Vet inte. Köp ett paket glassar pÄ ica istÀllet.
NÄgot man mÄste göra i Stockholm? Det finns inte mycket att se. Turister brukade gÄ runt i gamla stan och titta pÄ tunnelbanestationer.
Annéa:
> Muscab: Jag tror de mesta platser Àr ganska ovÀnliga för rullstol. Backar, grusvÀgar, kullersten, trÄnga dörrar, trappor. Finns det nÄgon restaurang/café som Àr billig och rullstolsvÀnlig? Vet inte. Köp ett paket glassar pÄ ica istÀllet.
>
> NÄgot man mÄste göra i Stockholm? Det finns inte mycket att se. Turister brukade gÄ runt i gamla stan och titta pÄ tunnelbanestationer.
Han sitter ju INTE i rullstol...
Tharsika:
Vad har han för problematik? Vad kan störa/vara svÄrt för honom ? Rullstol ? Kramp? UtÄtagerande ?
Muscab:
> Annéa: Han sitter ju INTE i rullstol...
LĂ€ste fel. đ€Š
Boine:
Armémuseum
Historiska museet
Ă
ka djurgĂ„rdsfĂ€rjan alt. âSkĂ€rgĂ„rdsturâ med SL
Utsikt pÄ Södermalm + promenaden dit. Mariaberget & MonteliusvÀgen
Gamla stan - MÄrten Trotzig grÀnd samt kanonkulorna i husvÀggen nÄgra meter frÄn Stortorget
MÄlningar i tunnelbanan
Spela Àventyrsgolf inomhus
Se guldbron - Slussen
Utsikt Katarinahissen - Slussen, man gÄr in i porten till Gondolen (nog nerlagd) tar hissen lÀngst upp och gÄr en vÄning upp annars fÄr man gÄ dit bakvÀgen onödigt lÄngt.
GĂ„ hela Drottninggatan
Slottet ev tajma in vaktavlösning
Kolla om det finns nÄgot personen har intresse av/om, finns en hel gratis museum
Roozbeh:
Vilka bra tips! Tack allihopa vad fint av er att bidra! SĂ„ uppskattat verkligen đ
Nu Àr vi Äter hemma igen efter resan till Stockholm.
Resan gick jÀttebra, vi planerade noga och gjorde det mesta av tid med hÀnsyn till funktionsnedsÀttningen. Vi gick sÄklart efter vad han sjÀlv önskade göra och gav förslag pÄ vad Stockholm erbjuder. DÄ vi bara var i Stockholm under ca 24 timmar mÄste jag sÀga att vi fick gjort mycket mer Àn vi vÀntade oss. Vi hade ingen bil. IstÀllet köpte vi ett 24 tim kort för kollektivtrafiken och med hjÀlp av SL appen och google maps navigerade jag runt oss i staden.
Hotellet vi bodde pÄ lÄg nÀra Centralstationen.
Detta gjorde vi:
Gick runt hela Gamla Stan. Ă
t pÄ restaurang dÀr samt i Vasaplan och Àven fikade pÄ diverse caféer i Gamla Stan. Vi sÄg det Kungliga slottet bÄde inuti och utanpÄ, var uppskattat! Han tyckte det var sÄ hÀftigt. Strosade runt i alla grÀnder, torg och gator i Gamla Stan, gick in i trevliga smÄ butiker och tog fina foton! Vi tittade pÄ alla bÄtar i hamnen. Parlamentet. Stadshuset. Vi gick in pÄ diverse olika stÀllen vi gick förbi som han impulsivt kÀnde dragning till. Typ karaokebar, kulturhuset, pubbar etc. Allt han kÀnde för gjorde vi. Det var hans resa 100 %.
Ă
kte med fÀrja till DjurgÄrden och besökte ABBA museet dÀr han fick lyssna pÄ sÄnger, se rekvisita, sjunga och t.om Äka helikopter i VR.
Vi shoppade ocksÄ sÄklart dÄ Stockholm har sÄ mÄnga butiker!(Hela Drottninggatan och stÀllen pÄ/nÀra Vasaplan)
Under resan interagerade han med en massa Stockholmare. Sade till flertalet tjejer att han Àlskade dom haha vilket charmör! Vi gick förbi en högvakt vid slottet som han hÀlsade pÄ. Det var en hon, och vakten rörde inte en min men följde honom med blicken. Givetvis fick vi sÀga det att dom inte pratar med nÄgon dÄ det ingÄr i jobbet etc.
Han blev bemött med respekt och ömhet av de flesta ska sÀgas. Han var glad över att ha fÄtt prata med sÄ mÄnga mÀnniskor. Vi stannade ofta dÄ han ville frÄga t.ex poliser eller andra arbetare om saker, alla var gulliga och vÀnliga mot honom.
Vi Äkte under resan buss, tunnelbana(ocksÄ en önskan att fÄ göra) och fÀrjor till olika fÀrjterminaler för att fÄ se Stockholm frÄn vattnet.
SĂ„g ocksĂ„ Sergels Torg pĂ„ kvĂ€llen eller "Plattan" som jag tror den ocksĂ„ kallas. En pelare var vackert upplyst i blĂ„tt ljus dĂ€r och han berĂ€ttade exalterat om hur mĂ„nga filmer han sett som har plattan som scenplats etc. KvĂ€llen bjöd pĂ„ solnedgĂ„ngen frĂ„n hotellets tak. Ă
t en fantastisk frukostbuffé pÄ morgonen med flera omgÄngar god mat! HÀrligt att han njöt.
DÄ han faktiskt har en fysisk och kognitiv nedsÀttning Àr vi sÄ glada att han orkade sÄ mycket! BÀst av allt sa han sig vara vÀldigt nöjd med resan. Vi ska nu planera fler resor till Stockholm i framtiden. DÄ gör vi fler saker, sÄnt vi inte hann med den hÀr gÄngen. Var lite begrÀnsat med tid(24 timmar) samt behövde vi tÀnka pÄ att energi skulle rÀcka till utan att kroppen skulle triggas till att hans nedsÀttnings symptom blossade upp. Behövs ju givetvis pauser med jÀmna mellanrum dÄ.
Tack och lov för apparna som jag kunde leda oss efter. Att Äka kollektivt hade varit svÄrt annars och jag kunde se efter kartan var vÄra besöksmÄl lÄg samt vilka vÀgar som kunde spara oss onödig tid.
Tack ska ni ha för tipsen, igen. Tack till Stockholm för att ni tog emot oss med respekt han var sÄ nöjd med resan.
Hej sĂ„ lĂ€nge, vi kommer Ă„ter i framtiden! đ
đ License
This project is licensed under the MIT license.
đ Evaluation Results
Open LLM Leaderboard Evaluation Results
Detailed results can be found here
Property | Details |
---|---|
Avg. | 57.53 |
AI2 Reasoning Challenge (25-Shot) | 57 |
Phi 2 GGUF
Other
Phi-2 is a small yet powerful language model developed by Microsoft, featuring 2.7 billion parameters, focusing on efficient inference and high-quality text generation.
Large Language Model Supports Multiple Languages
P
TheBloke
41.5M
205
Roberta Large
MIT
A large English language model pre-trained with masked language modeling objectives, using improved BERT training methods
Large Language Model English
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT is a distilled version of the BERT base model, maintaining similar performance while being more lightweight and efficient, suitable for natural language processing tasks such as sequence classification and token classification.
Large Language Model English
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct is a multilingual large language model optimized for multilingual dialogue use cases, excelling in common industry benchmarks.
Large Language Model English
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa is a multilingual model pretrained on 2.5TB of filtered CommonCrawl data across 100 languages, using masked language modeling as the training objective.
Large Language Model Supports Multiple Languages
X
FacebookAI
9.6M
664
Roberta Base
MIT
An English pre-trained model based on Transformer architecture, trained on massive text through masked language modeling objectives, supporting text feature extraction and downstream task fine-tuning
Large Language Model English
R
FacebookAI
9.3M
488
Opt 125m
Other
OPT is an open pre-trained Transformer language model suite released by Meta AI, with parameter sizes ranging from 125 million to 175 billion, designed to match the performance of the GPT-3 series while promoting open research in large-scale language models.
Large Language Model English
O
facebook
6.3M
198
1
A pretrained model based on the transformers library, suitable for various NLP tasks
Large Language Model
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1 is Meta's multilingual large language model series, featuring 8B, 70B, and 405B parameter scales, supporting 8 languages and code generation, with optimized multilingual dialogue scenarios.
Large Language Model
Transformers Supports Multiple Languages

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
The T5 Base Version is a text-to-text Transformer model developed by Google with 220 million parameters, supporting multilingual NLP tasks.
Large Language Model Supports Multiple Languages
T
google-t5
5.4M
702
Featured Recommended AI Models
© 2025AIbase