G

German Roberta Sentence Transformer V2

T-Systems-onsiteによって開発
XLM-RoBERTaアーキテクチャを基に最適化されたドイツ語の文埋め込みモデルで、多言語アプリケーションをサポートし、ドイツ語タスクで優れた性能を発揮
ダウンロード数 2,498
リリース時間 : 3/2/2022

モデル概要

このモデルはXLM-RoBERTaアーキテクチャを基に最適化された文埋め込みモデルで、特にドイツ語タスク向けに最適化されており、同時に多言語アプリケーションをサポートします。主に高品質な文埋め込み表現の生成に使用され、検索や言い換え認識などのタスクに適しています。

モデル特徴

多言語能力
ドイツ語と英語間の多言語アプリケーションをサポートし、異なる言語間の意味的マッチングを実現
高性能
ドイツ語タスクで優れた性能を発揮し、英語タスクでも現在の最高水準のモデルの一つ
最適化アーキテクチャ
XLM-RoBERTaアーキテクチャを基に、distilroberta-base-paraphrase-v1バリアントを採用し、性能を維持しながら効率を向上

モデル能力

文埋め込み生成
意味的類似度計算
多言語意味マッチング
テキスト検索最適化
言い換え認識

使用事例

情報検索
多言語ドキュメント検索
ドイツ語と英語ドキュメント間の意味検索を実現
多言語検索の関連性と精度を向上
テキスト類似度
言い換え認識
異なる表現方法だが意味が同じ文を識別
STSベンチマークテストで良好な性能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase