R

Reasoning Bert Ccnews

bwang0911によって開発
これはBERTを微調整した文変換モデルで、文や段落を768次元のベクトル空間にマッピングし、意味的テキスト類似性や意味的検索などのタスクをサポートします。
ダウンロード数 13
リリース時間 : 3/28/2025

モデル概要

このモデルはgoogle-bert/bert-base-uncasedを微調整しており、トレーニングデータセットはreason_unfilteredで、主に意味的テキスト類似性計算や情報検索などの自然言語処理タスクに使用されます。

モデル特徴

高品質な文埋め込み
文や段落を768次元の密なベクトル空間にマッピングし、意味情報を保持します
推論誘導ランキング損失トレーニング
推論誘導ランキング損失関数を使用してトレーニングし、意味的類似性判断を最適化します
マルチタスク性能最適化
nfcorpus、trec-covidなどのデータセットを含む複数の情報検索タスクで良好なパフォーマンスを発揮します

モデル能力

意味的テキスト類似性計算
意味的検索
言い換えマイニング
テキスト分類
クラスタリング分析

使用事例

情報検索
ドキュメント類似性検索
大規模なドキュメントコレクションから意味的に類似したドキュメントを検索
nfcorpusデータセットで0.5975の精度@10を達成
質問応答システム
質問と候補回答の意味的類似性をマッチング
quoraデータセットで0.7256の精度@1を達成
ニュース分析
ニュースコンテンツ類似性分析
異なるニュース記事間の意味的関連度を分析
CCNewsデータセットに基づいてトレーニングされ、ニューステキスト処理に適しています
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase