CAG Mistral 7b
C
CAG Mistral 7b
ruotong-panによって開発
Mistral-7Bをファインチューニングした70億パラメータの信頼性認識生成モデルで、コンテキストの信頼性を理解し活用してコンテンツを生成する能力を備えています。
ダウンロード数 37
リリース時間 : 3/18/2024
モデル概要
このモデルは、RAG(検索拡張生成)で外部から導入されたノイズドキュメントを処理する際に非常に高い堅牢性を示し、カスタム信頼性基準をサポートするため、個別化応答生成や知識衝突解決などのシナリオに適しています。
モデル特徴
信頼性認識生成
コンテキストの信頼性を理解し活用してコンテンツを生成でき、ノイズドキュメントを処理する際に非常に高い堅牢性を示します。
カスタム信頼性基準
カスタム信頼性基準をサポートし、個別化応答生成や知識衝突解決など、幅広い応用シナリオに対応します。
Mistral-7Bベースのファインチューニング
Mistral-7Bモデルをベースにファインチューニングされており、強力な生成能力とコンテキスト理解能力を備えています。
モデル能力
信頼性認識コンテンツ生成
ノイズドキュメント処理
個別化応答生成
知識衝突解決
使用事例
質問応答システム
オープンドメイン質問応答
オープンドメイン質問応答シナリオで信頼性の高い回答を生成します。
非常に高い堅牢性を示し、ノイズドキュメントを処理できます。
時効性質問応答
時効性のある質問応答シナリオで正確かつ信頼性の高い回答を生成します。
知識衝突問題を効果的に処理できます。
誤情報干渉下の質問応答
誤情報の干渉が存在する状況で信頼性の高い回答を生成します。
非常に高い干渉耐性を示します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98