Sgpt Bloom 1b7 Nli
S
Sgpt Bloom 1b7 Nli
bigscience-dataによって開発
BLOOM-1.7Bモデルを基に訓練された文変換器で、文の類似度と自然言語推論タスクに特化
ダウンロード数 14
リリース時間 : 5/29/2022
モデル概要
このモデルはBLOOMアーキテクチャに基づく文埋め込みモデルで、文の類似度計算と自然言語推論タスクの実行に特化しています。重み付き平均プーリングなどの技術を用いて意味表現能力を最適化しています。
モデル特徴
重み付き平均プーリング
重み付き平均プーリング技術を用いて文表現を最適化し、意味的類似度計算の効果を向上
BitFit訓練
バイアスパラメータのみを訓練する効率的な訓練方法で、性能を維持しながら計算リソース要件を削減
勾配キャッシュ
勾配キャッシュ技術を使用して大規模バッチ訓練を処理し、訓練効率を向上
多言語サポート
中国語、フランス語など複数言語で優れた性能を発揮
モデル能力
文類似度計算
意味的テキスト類似度評価
テキスト分類
クロスランゲージ意味マッチング
使用事例
電子商取引
商品レビュー分類
Amazon商品レビューの感情またはトピック分類
フランス語レビュー分類精度39.29%、中国語37.63%
対話システム
意図認識
ユーザー対話中の意図カテゴリを識別
フランス語意図分類精度63.36%
シーン分類
ユーザー対話が属するシーンカテゴリを識別
フランス語シーン分類精度69.60%
意味検索
クロスランゲージ意味マッチング
異なる言語間のテキストの意味的類似度を計算
中国語STSタスクピアソン相関係数59.72、フランス語73.44
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98