🚀 ModernBERT-Base
This model is a fine - tuned sentence - transformer that maps text to a 768 - dimensional space for various NLP tasks.
🚀 Quick Start
This is a sentence-transformers model finetuned from answerdotai/ModernBERT-base on the avemio/German-RAG-EMBEDDING-TRIPLES-HESSIAN-AI dataset. It maps sentences & paragraphs to a 768 - dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
✨ Features
- Semantic Textual Similarity: Effectively measures the similarity between different sentences or paragraphs.
- Semantic Search: Helps in retrieving relevant information based on semantic meaning.
- Paraphrase Mining: Finds paraphrases within a text corpus.
- Text Classification and Clustering: Useful for categorizing and grouping text data.
📦 Installation
First install the Sentence Transformers library:
pip install -U sentence-transformers
💻 Usage Examples
Basic Usage
from sentence_transformers import SentenceTransformer
model = SentenceTransformer("avemio-digital/ModernBERT_base_triples_embedding")
sentences = [
'Wieso verklagte die Familie von Ritter die behandelnden Ärzte auf 67 Millionen US-Dollar Schadensersatz?',
'Während Proben zu einer Folge von "Meine wilden Töchter" traten bei Ritter im September 2003 starke Brustschmerzen auf, und er begab sich in das nahegelegene "Providence Saint Joseph Medical Center", in dem er am 11. September 2003 im Alter von 54 Jahren – eine Woche vor seinem 55. Geburtstag – an einer Aortendissektion starb. Seine Familie verklagte Anfang 2008 die behandelnden Ärzte auf einen Schadensersatz von 67 Millionen US-Dollar. Die Klage wurde im März 2008 abgewiesen.',
'Nach der Einstellung der Fernsehserie "Herzbube mit zwei Damen" nach acht Staffeln im Jahr 1984 machte er mit dem Spin-off "Three’s A Crowd" weiter, jedoch wurde die Serie nach einer Staffel eingestellt. Weitere Fernsehrollen hatte er in "Inspektor Hooperman" (1987), die ihm eine Nominierung sowohl für den Golden Globe als auch für den Emmy einbrachte, "Küß’ mich, John" (1992), "Ally McBeal" (1997), "Buffy – Im Bann der Dämonen" (1997), "Clifford the Big Red Dog" (2000), "Scrubs – Die Anfänger" oder "Meine wilden Töchter" (2002).',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
📚 Documentation
Model Details
Model Description
Model Sources
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: ModernBertModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
🔧 Technical Details
Evaluation
Metrics
Information Retrieval
Metric |
Value |
cosine_accuracy@1 |
0.5818 |
cosine_accuracy@3 |
0.9328 |
cosine_accuracy@5 |
0.9522 |
cosine_accuracy@10 |
0.9682 |
cosine_precision@1 |
0.5818 |
cosine_precision@3 |
0.3109 |
cosine_precision@5 |
0.1904 |
cosine_precision@10 |
0.0968 |
cosine_recall@1 |
0.5818 |
cosine_recall@3 |
0.9328 |
cosine_recall@5 |
0.9522 |
cosine_recall@10 |
0.9682 |
cosine_ndcg@10 |
0.814 |
cosine_mrr@10 |
0.7608 |
cosine_map@100 |
0.7618 |
Training Details
Training Dataset
json
- Dataset: json
- Size: 264,810 training samples
- Columns:
anchor
, positive
, and negative
- Approximate statistics based on the first 1000 samples:
|
anchor |
positive |
negative |
type |
string |
string |
string |
details |
- min: 28 tokens
- mean: 54.52 tokens
- max: 307 tokens
|
- min: 30 tokens
- mean: 184.58 tokens
- max: 1293 tokens
|
- min: 33 tokens
- mean: 151.69 tokens
- max: 1297 tokens
|
- Samples:
anchor |
positive |
(Original anchor sample content) |
(Original positive sample content) |
📄 License
This model is released under the apache - 2.0 license.