A

All Datasets V3 Roberta Large

flax-sentence-embeddingsによって開発
RoBERTa-largeに基づく文埋め込みモデルで、自己教師付き対比学習を通じて10億の文ペアデータセットで訓練され、意味が豊富な文ベクトル表現を生成するために使用されます。
ダウンロード数 987
リリース時間 : 3/2/2022

モデル概要

このモデルは文エンコーダで、入力文を意味情報を含むベクトル表現に変換することができ、情報検索、テキストクラスタリング、文の類似度計算などのタスクに適しています。

モデル特徴

大規模対比学習訓練
10億を超える文ペアの超大規模データセットで対比学習訓練を行い、文の表現能力を最適化します。
多源データ統合
23の異なるソースからのデータセットを統合し、質問応答、検索、学術引用などのさまざまなテキストタイプをカバーしています。
効率的なハードウェア最適化
7台のTPU v3 - 8チップを使用して訓練し、GoogleチームによるJAX/Flaxフレームワークでの最適化サポートを受けています。

モデル能力

文のベクトル化
意味類似度計算
情報検索
テキストクラスタリング

使用事例

情報検索
ドキュメント検索
クエリ文とドキュメントをベクトルに変換し、意味に基づくドキュメント検索を実現します。
テキスト分析
文の類似度計算
2つの文間の意味類似度スコアを計算します。
テキストクラスタリング
類似する意味のテキストを自動的にグループ化します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase