SGPT 125M Weightedmean Nli Bitfit
S
SGPT 125M Weightedmean Nli Bitfit
Muennighoffによって開発
SGPT-125Mは、加重平均と自然言語推論(NLI)の微調整に基づく文変換モデルで、文の類似度計算と特徴抽出に使用されます。
ダウンロード数 326
リリース時間 : 3/2/2022
モデル概要
このモデルは主に文の類似度計算とテキストの特徴抽出に使用され、加重平均と自然言語推論の微調整により多言語テキスト処理能力が最適化されています。
モデル特徴
マルチタスク評価能力
MTEB(マルチタスク評価ベンチマーク)の様々なタスクで良好な性能を発揮します。分類、クラスタリング、検索などが含まれます。
多言語サポート
英語、ドイツ語、スペイン語、フランス語、日本語、中国語など、複数の言語のテキスト処理をサポートします。
加重平均最適化
加重平均法を用いて文の表現を最適化し、類似度計算の精度を向上させます。
NLI微調整
自然言語推論(NLI)タスクを通じて微調整され、意味理解能力が強化されています。
モデル能力
文の類似度計算
テキストの特徴抽出
多言語テキスト分類
文書クラスタリング
情報検索
検索結果の再ランキング
意味的テキスト類似度評価
バイリンガルテキストマイニング
使用事例
電子商取引
アマゾンレビュー分類
アマゾンの多言語商品レビューを分類します。
英語レビューの分類精度は35.098%、ドイツ語は24.516%、スペイン語は29.098%です。
反事実分類
アマゾンレビューの中の反事実陳述を識別します。
英語の精度は65.88%、ドイツ語は59.08%、日本語は56.42%です。
学術研究
arXiv論文クラスタリング
arXivの学術論文をポイント対ポイントおよび文対文でクラスタリングします。
ポイント対ポイントのVメトリックは34.74、文対文のVメトリックは24.68です。
biorxiv論文クラスタリング
biorxivの生物学論文をクラスタリング分析します。
ポイント対ポイントのVメトリックは28.93、文対文のVメトリックは23.08です。
質問応答システム
AskUbuntu重複質問検出
AskUbuntuフォーラムの重複質問を識別します。
平均精度は52.63%、平均逆順位は65.76%です。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98