Alignscorecs
A
Alignscorecs
krotima1によって開発
チェコ語と英語のテキストにおけるコンテキスト - 主張の事実一致性を評価するためのマルチタスク多言語モデル
ダウンロード数 58
リリース時間 : 4/8/2024
モデル概要
このモデルはXLM - RoBERTaアーキテクチャに基づいており、自然言語理解タスクにおける事実一致性を評価するために特別に設計されています。要約生成、質問応答システム、意味的テキスト類似度、言い換え、事実検証、自然言語推論などの様々なタスクをサポートします。
モデル特徴
多言語サポート
英語とチェコ語の事実一致性評価をサポートし、異言語アプリケーションの可能性を持っています。
マルチタスクアーキテクチャ
共有エンコーダに3つの独立した分類ヘッドを組み合わせた設計で、回帰、二元分類、三元分類タスクを同時に処理できます。
大規模な学習データ
700万のドキュメントを含むマルチタスクデータセットに基づいて微調整され、様々なNLUタスクをカバーしています。
ブロック評価戦略
革新的なブロック処理方法を採用し、長いテキストを断片に分割して評点した後、結果を集約します。
モデル能力
事実一致性評点
異言語テキスト評価
マルチタスク処理
自然言語理解
使用事例
テキスト要約評価
要約の事実性チェック
生成された要約と原文内容の事実一致性を評価します。
要約の精度を定量化できます。
質問応答システム
回答の検証
システムが生成した回答が与えられたコンテキストと一致するかどうかを検証します。
質問応答システムの信頼性を向上させます。
事実検証
声明の検証
声明と支持証拠の間の一致性を評価します。
事実検証プロセスを支援します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98