Luke Japanese Base Finetuned Jsts
L
Luke Japanese Base Finetuned Jsts
Mizuiro-sakuraによって開発
luke-japanese-baseをファインチューニングした日本語文類似度計算モデル、JSTSデータセットで訓練
ダウンロード数 15
リリース時間 : 2/10/2023
モデル概要
このモデルは日本語文間の類似度を計算する専用で、0-5点の類似度スコアを出力。LUKEアーキテクチャベースで、エンティティ認識自己注意機構により意味理解能力を強化。
モデル特徴
エンティティ認識自己注意
従来のTransformerの注意機構を拡張し、単語とエンティティを同時処理可能、意味理解を強化
日本語最適化
日本語テキスト専用に事前訓練とファインチューニングを実施、日本語意味タスクに適応
高精度
JSTSデータセットでピアソン相関係数0.8971を達成、優れた性能
モデル能力
日本語意味理解
文類似度スコアリング
テキストペア比較
使用事例
テキスト分析
QAシステム
ユーザ質問と知識ベース質問の類似度評価
QAマッチング精度向上
コンテンツ重複排除
意味的に類似したニュースや文書を識別
重複コンテンツ効果的削減
教育評価
解答採点
学生解答と模範解答の類似度比較
自動採点補助
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98