🚀 ROBERTA BASE (区分大小写) 在保加利亚语 - 英语私有平行数据上训练
这是一个多语言Roberta模型,可用于创建保加利亚语句子的嵌入向量。
该模型借鉴了 Sentence - BERT 的思想,其训练基于这样一个理念:翻译后的句子应与原句在向量空间中映射到相同位置。
此模型区分大小写,即“bulgarian”和“Bulgarian”是不同的。
它在保加利亚语 - 英语私有平行数据上进行训练。
🚀 快速开始
模型信息
属性 |
详情 |
推理功能 |
否 |
任务类型 |
句子相似度 |
支持语言 |
保加利亚语 |
许可证 |
MIT |
训练数据集 |
oscar、chitanka、wikipedia |
标签 |
torch |
模型特点
- 多语言Roberta模型,用于保加利亚语句子嵌入。
- 基于Sentence - BERT思想训练,使翻译句和原句在向量空间映射到相同位置。
- 区分大小写。
训练数据
该模型在保加利亚语 - 英语私有平行数据上进行训练。
💻 使用示例
基础用法
>>> import scipy
>>> import torch
>>> from transformers import AutoModel, AutoTokenizer
>>>
>>> model = AutoModel.from_pretrained('rmihaylov/roberta-base-nli-stsb-bg')
>>> tokenizer = AutoTokenizer.from_pretrained('rmihaylov/roberta-base-nli-stsb-bg')
>>>
>>> def embed(text):
>>> inputs = tokenizer.encode_plus(text, return_tensors='pt')
>>> outputs = model(**inputs)
>>> sequence_output = outputs[0]
>>> input_mask_expanded = inputs['attention_mask'].unsqueeze(-1).expand(sequence_output.size()).float()
>>> embeddings = torch.sum(sequence_output * input_mask_expanded, 1) / torch.clamp(input_mask_expanded.sum(1), min=1e-9)
>>> return embeddings.detach().numpy()[0]
>>>
>>>
>>> query_embedding = embed("Какви са съставките на бисквитките?")
>>>
>>> questions = [
>>> "Какво е бисквитка?",
>>> "От какво са направени бисквитките?",
>>> "Използват ли в Англия думата бисквитки?",
>>> "Къде се правят бисквитките?",
>>> "Какви видове бисквитки има?",
>>> "Къде човек може да купи бисквитки?",
>>> "Откъде дойде думата бисквитка?",
>>> "Кое е чудовището на бисквитките?",
>>> "Как да си направите бисквитки у дома?",
>>> "Колко калории има типичната бисквитка?",
>>> "Какви напитки вървят добре с бисквитките?",
>>> "Бисквитките наричат ли се също сладки?"
>>> ]
>>>
>>> corpus, corpus_embeddings = [], []
>>> for question in questions:
>>> embedding = embed(question)
>>> corpus.append(question)
>>> corpus_embeddings.append(embedding)
>>>
>>> distances = scipy.spatial.distance.cdist([query_embedding], corpus_embeddings, "cosine")[0]
>>>
>>> results = zip(range(len(distances)), distances)
>>> results = sorted(results, key=lambda x: x[1])
>>>
>>> print([[corpus[idx].strip(), (1.0 - distance)] for idx, distance in results])
[['Какви видове бисквитки има?', 0.9749538412820795],
['От какво са направени бисквитките?', 0.9720467855849998],
['Къде се правят бисквитките?', 0.9622582076645853],
['Какво е бисквитка?', 0.9352896865855094],
['Използват ли в Англия думата бисквитки?', 0.8981422328370646],
['Откъде дойде думата бисквитка?', 0.8955433698658758],
['Кое е чудовището на бисквитките?', 0.8902666858687854],
['Бисквитките наричат ли се също сладки?', 0.8839303534407483],
['Какви напитки вървят добре с бисквитките?', 0.8582087653310524],
['Къде човек може да купи бисквитки?', 0.8570532540073935],
['Колко калории има типичната бисквитка?', 0.8387529949080176],
['Как да си направите бисквитки у дома?', 0.8243675958097614]]
📄 许可证
本模型使用的许可证为MIT。