Roberta Amharic Embed Medium
R
Roberta Amharic Embed Medium
Developed by yosefw
An Amharic language sentence transformer based on the RoBERTa architecture, designed for sentence similarity calculation and feature extraction.
Downloads 15
Release Time : 2/18/2025
Model Overview
This model is specifically optimized for the Amharic language, capable of converting sentences into high-dimensional vector representations for tasks such as sentence similarity calculation and semantic search.
Model Features
Amharic Language Optimization
Specially trained and optimized for the Amharic language, better capturing its semantic features.
Dual Loss Function Training
Trained using both MatryoshkaLoss and MultipleNegativesRankingLoss to enhance model performance.
Large-scale Training Data
Trained on 54,900 data points, providing strong generalization capabilities.
Model Capabilities
Sentence vectorization
Semantic similarity calculation
Feature extraction
Semantic search
Use Cases
Information Retrieval
News Similarity Analysis
Analyze semantic similarity between different news articles
Effectively identifies different news articles reporting the same event
Content Recommendation
Related Content Recommendation
Recommend related content based on semantic similarity
Improves user content discovery efficiency
đ Sentence Transformer Model for Amharic
This is a sentence transformer model fine-tuned on an Amharic dataset. It can be used for various tasks such as sentence similarity, feature extraction, etc.
⨠Features
- Base Model: Built upon the
rasyosef/roberta-medium-amharic
base model. - Loss Functions: Trained with
MatryoshkaLoss
andMultipleNegativesRankingLoss
. - Dataset Size: The training dataset contains 54,900 samples.
đ Documentation
Widget Usage
The model comes with a widget that allows you to perform sentence similarity tasks. Here are some examples:
- Source Sentence 1: "7áá ááá á áá á¨á
áĽá¨áľ áĽáŤ á áá° áááᣠáŁááá á˛áááá¨á á°ááá¨"
- Sentences for Comparison:
- "á á˛áľ á á ᣠᣠáĽá 28 ᣠ2012 (á¤á ᢠá˛) 7áá ááá á áá á¨á áĽá¨áľ áĽáŤ á áá° áááᣠáŁááá á˛áááá¨á á ááŹá áááľ á°áááŻáᢠá áá° ááአâá¨á áĽá¨áľ áľáŤ ááĽááľ áá°áá áááŁáłâ á áá á᪠áá á á á˛áľ á á ᣠá¤áááŞá˝á ááá¨á áĽá¨á°áŤáá° ááááᢠá¨áá°áŤá á¨á áĽá¨áľ áĽáŤ á¤ááᲠáááľá áá áłááŹáá°á á áś á áĽá˛ ááááľáĽ á áááŞáą á¨á°á¨áá á˘áŽáá áĽáá˛áá á á°á á áŤá˝ á¨áá áĽá á á¨á°áá˝ á¨áá¨á°áą á¨áá áá¨áśá˝ áĽáá˛áľá°áŤá¨á á¨á áĽá¨áľ áĽáŤ áá á áŤáľ á¨áá°á á áľá°áá ጠáĽááłáá¸á á á á°ááᢠá áá° ááአá á áĽá¨áľ áľáŤ áá á áŤáľ ááŤá¨á á ááŤáŤá á¨á°áá á á¨áá ፠áľáľáľáá áááá áá áá á áŤáľ áá°áá ááľááá ááľáĽáĽá á¨ááŤá á¨ááąáľá á áľá°áá ጠá á°á¨áŁá áááłá¨áľ áłáá á¨á°ááá ááááá á ááľá°ááᢠáá ááľ áłáááľ á ááá¨á á áá á áá° ááá 175 á¨á áĽá¨áą áá á áŤáľ áĽá á áá áľáá áśá˝ áĽáá°ááłá°á áá áłááŹáá°áŠ á°ááá¨ááᢠá ááá á áá á˛áááá¨á áá á¨á°ááŤáŠ á¨ááá ááľáĽ áĽá á¨áá áááŤáľ á¨á áĽá¨áľ áĽáŤ áአá°áááŽáá˝ ááááŁá á°áĽá áá á ááá˘"
- ... (other sentences)
- Sentences for Comparison:
- Source Sentence 2: "ááŞá áŽá á´á áĄáá á ááá"
- Sentences for Comparison:
- "á ááłáŁáááľ âá¨á°ááá áâᣠá ááá á áĽá ááá á á°áŤá áá âáŤáá°ááá áâ á¨ááá˛áŤ áľáááľáĽ á¨ááá áááŚá˝ á¨áá°á áľá áá âáĽá áâ áááá á°ááááš á âá¨áĽáááľâ áľááľ áá¨ááá á¨ááá¨áĽ á°ááá áłááá áá፠áá¨á¨ áá ááŁá á¨áá˝áá á áááľ á¤á°ááá ááá˝ áá á ááŁáĽá á á áá ááᢠáááá á ááľ áááľá á¨ááŤá áĽááľ á áá ááá áá á ááŤá˝á á áááĽá á áĽá ááľá°áśá˝ ááľáĽ á áááá˝á¤ á áááá áá áľáááá˝á˘ á áĽá ááአá¨áĽá ááłá áá°áá°áá áľááá áá°á á á¨ááá˝áá áľ áĽá á ááŁá áĽá áĽáááł á áᢠá¨ááááŞáŤá áĽáááł ááá áááá á˘á¸áá¨á áŤáá âá á˛áľâ ááááĽáľ (á áĽááἠá á˛áľ á áá°áá) á¨áľáŽ áŤááá ááááĽáľ á áŤá á¨áá አá áŁááľ á°ááľáś á áľááá á¨ááĄá áľ ááᢠááá˛á á ááá áŤá ááᲠááᤠááá አáŤá ááá á ááᤠá á áŤáŠ áŤá á á áŤá ááᤠááááá áŤá áááá ááᢠáááááą áá¨áľ áááą áĽááłá á˛áá á áĽááŁá áá áŤááľ ááŞáá˝ áłááአá á áĽááá âá á á˛áľ ááá áĽáŤ á¨áááŠâ áá¸áá˘á á°áá á áá á áŤá áá˛áŤ áá ááἠáŤááŁá áááááľá á°áľá ááá¸á˝áŁ áá°áááľ á˛ááá áĽáŤá¨á ááᢠáá á áá ááĽáś áááá á¨ááአá˛áአááá˝ á ááá á¨á°áľáá¸á áá ááá á ááá á¨ááᥠáááá˛áśá˝ áŤáá¸á áá áĽáá°áá áĽá¨á°ááአááᢠá¨ááááĽáľ á á°áá á¨á á áá áááľáľá áá˘á á áŠá á¨áá°áĄ áá¨ááá˝ (á˘áŤááľ ááá á á¨á°áĄ á áááĽáᢠá áá á¨á°áá˝ áááááᣠá¤áľ ááá¨áľáŁ á¨á á˛áľ á á ᣠá¨áŁáá¤áľááľ áááἠᣠá¨áŽááśááá¨á áᣠáŁáŁ ááá°.) á á°ááááá á¨áá á áá áŁááą (áááłá á áá°áááᣠá ááá áŠá) ááĽá á áŹáłáá áĽá¨á¨áᨠá¨áᣠáááľááᢠá¨áᏠá˝áá ááá ááŤá áľáá°á ááá á¨áĽ á áá°ááᢠá¨ááŁá¤ áŤáááá¸á á¨ááá˛áŤ áááŽáľá áľáá°ááá˝áŁ áŤáááá áľá á ááá áŤááá áľá áááł á áĽááąá á˘áá áľááá áŤáľááá áŤááłá¸áá ááĽáŚá˝ á¨ááááá áĽááᢠááĽáŚáš ááá ááłáááš á¨á ááŤá˝á áááł á¨áŤá á˘ááľá áĽá á áľáá¨áá˘âá¨ááĽáŤá ááá áľáŤááâᣠâáąá°áá´ ááŁáâᣠâá áŁáľ á áľáŤášâ á¨áááá ááŹááłááľ áŽáľáŞá áąá°áá´ á¨á°á¸áŻá¸á á á˝á áĽáá˝ ááŤá¨á áá ááłáᢠá áá áą á¨á ááŞáŤ ááŹááłááľ á áá áŠáľ áŁáŤá áŚáŁá âá°áá ááá áŤáá á°áâ á°áĽáá á˛ááŤáš á˛áááŠá áá¨áľ áŤá á¨ááá˛áŤ ááᤠááá á áááŁáłá¸á áá áᢠááá¤á á áá â áłáá á¨ááá ááá áá˛áŤ á˛áááâ áĽáľáŞáŁá áŤá áá¸á á¨á ááŞáŤ ááŹááłááľ áĽáľá¨ áŤáśáአá᪠áá ááŤáá˛áľ á ááŤá áááľ á á°ááá ááááŤá¸á áá áᢠá ááááĽáľ áá áľá˝áľ á¨ááŤááᥠá°ááŽáá ááá˛á¨áá á¨á¨á°á á¨áá˛áŁ á¨ááá áá° ááŹáá°ááľááľ áŤá°áá áá¸áᢠá¨áŤááłá áŤáá¤áŤ áŠáá¨áá˛á˛ á¨ááá˛áŤ ááá ááŽá áŠáŤáś (áś/á) âá¨áľááľ ááá˛áŤáŁ á°áľá á¨ááľá¨á ááá˛áŤá¤ á ááŤáŤ ááá áááľá á¨áąá°áá´ áá° áĽááŁá áááŁáľâ á áá áááá áá áŁáłá°ááľ á˝áá áĽááłááľ á¨áąá°áá´ á°áááá˝ áŤáłá¸áá á¨áťá á¨áááá ááááľ á°áá˝ áá¸áᢠá°áá¨á áá áá áááŁá¨á á¨áᎠá ááŁáááááąá á¨ááŤáłá á°ááŁá á˛áŤáᣠá°ááááš á áá¸ášáľá áá áᢠáá á á ááśá á°ááá áĽááłá á¨ááľáá á á áᥠáá áᢠá áĽááá áľáá á¨ááŁáá ááľá á áá á¨á ááááĽáľ ááááłáľ á¨á˘áŽáá á áááł áá¸á˝ á°á°áá á¨áá¨áá á°áľá°á áŤááá á¨á á¨ááŤá¨áá á°á¨á áááŞá áá áᢠáąá°áá´ á¨áá á ááἠááἠááááľ á¨áťáá âáĽáá˛á á á°ááááâ á ááá áááá áá á˛ááἠá á áĽááá á¨áááŤá á áľá°áłá°áá á¨ááááĽáľ á áááááľ áá á¨áá á¨áá áĽááš á á áŤá á¨áá áá áá á¨áááá áá áá˘á á°áá áąá°áá´ áĽááŁá áá á¨áááŁáą á ááľ á áááťá áá áľ ááá˝ áĽáąá á¨ááá°áá á¨á ááŹá á°áá˝á á¨á᪠ááá á¨ááŤáŠ á°áááŤážá˝ á°áááášá ááŤáá áĽá áááŁá á¨ááá¸áᣠá ááŤáŞá á°á á¨á áá¸áᣠá áá á¨ááš á áŤááľ á áľááá á¨ááłá á ááá፠áá áŤá¸áᢠá°áá¨á á¨áá¨áá¸á á ááŁááá áĽáá°ááá ááááľ áłááśá áá°ááá¸á áá ááá áááá á¨áłá¨áá¸áᣠá¨á ááľáŠáľ áĽááľ á á áŤá˘ áá á°áááášá á á¨áááá˝ á áľáá ááłá á¨áĽ á¨áááἠááááá áĽááąá áŤááŤá ááá˛áŤá á áŤááľ áá¤á áááŁá áŁá ááľá˘ á áĽááą ááá¨ááἠá¨ááľááá¨á áá ááľá á¨áĽááľá á¨ááááľ ááá˛áŤ áĽáá° áąá°áá´ (ááááŁáľá áĽáá° áľáŤáá) ááááą á¨áá¨ááľ á ááŁááá áá° á¨ááááŁá áŚáłáŁ áá° á¨áá°áá á¨áĽááŁá áĽáá¨á áĽáá˛áᣠááááŤáľ ááá á¨áá ááá˘áĽáá° ááŽá ááááľá áĽááľ áĽáťáá áłááá á¨áá á áŤá áĽááľ áŁáááŤáá˝ áĽá á¨á°á°á° ááá áááľ ááá âpenal populismâ á¨áááľ ááľá°áľá á áá áľá˘ áá¸áá áĽááľá ááááľ áá á áĽáŽ á˛áááŤá˛ áá°áá áá˝ááᤠáĽáá˛á ááááą á¨áá°áá áľáááľ áá á ἠá¨áá á¨á á°á á˛áᣠáľáááą á°áťá˝á á˛áááŤá˛áŤá á á áŤá áá°áŤ áá˝áá á¨áá âá°áľáâ á¨ááááľ áááł ááᢠáá ááľá°áľ âááá áááľâ á¨áá°áááľ ááá˛á¨á áľá á°áľ á˛áá á á¨áááŁáᣠá¨á᪠á¨ááá á á ᣠá ááľá á¨áá á á¨á°áĽ ááá ááĽá á¨áááŤáŁ ááá á˛á áá (áľáŤáá á á°á°ááá á´áśá˝ áá áĽááľ áľáááááá ááá ááá˛á¨á á´áśá˝á ááłáŁá¸áá ááááľ áľáś á áľááŤá áĽá áĽáľá¨ááłá°áĽ á˛á°ááľáŁ áąá°áá´ á á°ááá á፠á°á°á፠á á á°áá áááł áľáá°áá°áá˝ á´áľ áááľ á˛áŤááŤ) áá áĽá á¨ááá ááá áľ á¨áá°áĽ ááᢠá¨ááá áááľ ááአá á ááľ ááá á°ááŁá á ááá°á°áľ á˛ááἠááá ááááŤá á âáááĽâ áĽá âáááá á á°áá áĄáľáâ ááŤá¨á á°ááá ááá á ááá˘áĽáá˛á ááááą á¨áĽááľ ááá˛áŤ á á ááŤá˝áá áá áᢠá˘áá á´á á á ááŤá˝á áłáŞá áááá á ááŁáá á¨áá፠97 á¨ááá˛áŤ áááá áá°áľ âáĽá á¨ááá áĽáá° áŠáááł ááľáá ááâ áĽáá áá áᢠáĽá áá á á°áá á áá á¨ááłá¨á áá¤áľ áĽáá°ááŤáłá¨á á á ááŤá˝á á¨á°ááŤáŠ áááá˝ á¨ááአáááŚá˝ ááá˝ áááŚá˝ áĽáá˛á á á°á¨áá˝áᣠáŤá°ááá˝áá á áá á á°ááŤá áĽááť á¨áĽááľá á¨ááááľ ááá˛áŤ ááĽá ááᲠá¨áĽááŁá ááľááá ááŤáá áĽáť áłáááἠááá°áŚá˝ áĽááŁáá¸áá á°á á áá á ááŞáąá á¨áá ááĽáá áľ ááľá á°ááťá˝áˇáᢠá áá á¨á°á¨ááá ááá˛áŤ áĽá á¨ááá˛áŤá á°áááľ á°áŤá ááá ááá á áľá°áá á áá á¨áá˘á¨áľáłááááľ áŠáá¨áá˛á˛á á¨ááá˛áŤ ááá ááľáŽ ááá¤á âá á°á¨ááá ááἠá¨ááá˛á¨áá˝ á¨ááĽáĽá áľááľá¤ á˝áĽá á¨ááááľ ááá˛áŤâ á áá áááľ áŁáłá°áá ááŁáĽá áĽáá°ááá á ááŤáŤ á¨ááá˛áŤ á°áááľ ááááĽáľá ááá˛á¨áá˝ áŁááá áá áá°áĽ á áá ááľ áľá áááŁá¸á áĽáá˛áŤáľáĄá á¨ááŤáá§á¸ááá ááá˛áá˝ á á፠áĽáá˛áá á ááľá¨á ááłá áá¸áᢠá á ááአá¨ááá˛áŤ á°áááľ á°áŤá á ááá áľ áá ááá˛á¨áá˝ áááá ááŞáá˝ á¨áááľáŁá¸á á ááááᣠá¨áĽááŁáá áŤáá°áᣠáŞáŤá áá°á áľáŁáᢠáĽáá° ááá¤á áááť áĽááá ááŞáá˝ á¨á°á á°áĄáľá áŞáŤá áááľá ááĽáľ áŁáá°ááŁá áĽááľ á ááá ááአáááś á áá¨ááá áĽáŤá á°á áá°á ááłáŠ áá˝ááᢠáá á¨áĽááľ áááľ á áá áá á°áá áĽááŁáá¸á áá°áĽ áŤáá áľ áááá á áááŤá˝ ááᢠáá áá á¨áááá áá á¨áá á¨áĽááą áááľ á áá áĽáá°ááŤá°ááá áĽáá°áá á áá á áá á¨á°á¨ááá âdivided societyâ áŁáá áľ ááᢠá áá á á°á¨ááá áľáááľ ááľáĽ ááá˛á¨áá á¨áááľá°á á¨ááá á˘ááá áááś á¨áá°á á á¨áĽá ááááᣠá áá á ááááŤáľ á¨á°áťá ááá°ááá ááἠááá áá˝ááá˘áááľ á áľááá˝á áŁáľááľáąáĽá áá áááť á áŚáŽá፠ááá áĽá¨áá á¨ááŁá ááľá°áľ áá á¨áááłá°á áááľáááᢠááĽáľ áĽáŤá°áŁá°áĄ áá° áŚáŽá፠á¨ááá°áľáŁ á¨áŚáŽá ááŁáśá˝ á°á ááááľ áá° á¨á°á á áááś áĽáľá¨ááľáá áľá¨áľ á áá á¨áá°á¨á á á¨ááááŠá á¨áááἠáľáááá áá á ááá´ áľáá¨áľ á áááľáááᢠááááá áĽáŤáá áľáŽ á¨áá á¨á âáŤáá°ááá áâ ááááĽáľ á¨ááłáá á áľá á¨á˘áŽáá áĽá áá áá ááľ áĄáľá áĽáť ááľá áľáĽ áĄáľáá áá፠á áľááᎠáááá ááľá¨á ááááŁáľ áá á°áááᣠáá áááľ ááĽáŽ á ááá áá° ááľááľ áĽááłáá፠ááłá°áĽá áľ áááŁáá˘á á˝ 1 ááĽá 18 á¨ááá˘áľ 7 áá 2011"
- ... (other sentences)
- Sentences for Comparison:
Information Table
Property | Details |
---|---|
Model Type | Sentence Transformer |
Training Data | Amharic dataset with a size of 54,900 samples |
Loss Functions | MatryoshkaLoss, MultipleNegativesRankingLoss |
Base Model | rasyosef/roberta-medium-amharic |
đ License
This project is licensed under the Apache-2.0 license.
Jina Embeddings V3
Jina Embeddings V3 is a multilingual sentence embedding model supporting over 100 languages, specializing in sentence similarity and feature extraction tasks.
Text Embedding
Transformers Supports Multiple Languages

J
jinaai
3.7M
911
Ms Marco MiniLM L6 V2
Apache-2.0
A cross-encoder model trained on the MS Marco passage ranking task for query-passage relevance scoring in information retrieval
Text Embedding English
M
cross-encoder
2.5M
86
Opensearch Neural Sparse Encoding Doc V2 Distill
Apache-2.0
A sparse retrieval model based on distillation technology, optimized for OpenSearch, supporting inference-free document encoding with improved search relevance and efficiency over V1
Text Embedding
Transformers English

O
opensearch-project
1.8M
7
Sapbert From PubMedBERT Fulltext
Apache-2.0
A biomedical entity representation model based on PubMedBERT, optimized for semantic relation capture through self-aligned pre-training
Text Embedding English
S
cambridgeltl
1.7M
49
Gte Large
MIT
GTE-Large is a powerful sentence transformer model focused on sentence similarity and text embedding tasks, excelling in multiple benchmark tests.
Text Embedding English
G
thenlper
1.5M
278
Gte Base En V1.5
Apache-2.0
GTE-base-en-v1.5 is an English sentence transformer model focused on sentence similarity tasks, excelling in multiple text embedding benchmarks.
Text Embedding
Transformers Supports Multiple Languages

G
Alibaba-NLP
1.5M
63
Gte Multilingual Base
Apache-2.0
GTE Multilingual Base is a multilingual sentence embedding model supporting over 50 languages, suitable for tasks like sentence similarity calculation.
Text Embedding
Transformers Supports Multiple Languages

G
Alibaba-NLP
1.2M
246
Polybert
polyBERT is a chemical language model designed to achieve fully machine-driven ultrafast polymer informatics. It maps PSMILES strings into 600-dimensional dense fingerprints to numerically represent polymer chemical structures.
Text Embedding
Transformers

P
kuelumbus
1.0M
5
Bert Base Turkish Cased Mean Nli Stsb Tr
Apache-2.0
A sentence embedding model based on Turkish BERT, optimized for semantic similarity tasks
Text Embedding
Transformers Other

B
emrecan
1.0M
40
GIST Small Embedding V0
MIT
A text embedding model fine-tuned based on BAAI/bge-small-en-v1.5, trained with the MEDI dataset and MTEB classification task datasets, optimized for query encoding in retrieval tasks.
Text Embedding
Safetensors English
G
avsolatorio
945.68k
29
Featured Recommended AI Models
Š 2025AIbase