Wangchanberta Base Wiki 20210520 News Spm Finetune Qa
W
Wangchanberta Base Wiki 20210520 News Spm Finetune Qa
cstorm125によって開発
wangchanberta-base-wiki-20210520-news-spmモデルをベースに微調整されたタイ語質問応答モデルで、タイ語質問応答タスクに適用可能です。
ダウンロード数 20
リリース時間 : 3/2/2022
モデル概要
このモデルはタイ語質問応答タスクに対して微調整された事前学習言語モデルで、wangchanberta-base-wiki-20210520-news-spmモデルをベースに、複数のタイ語質問応答データセットで微調整されています。
モデル特徴
タイ語質問応答の最適化
タイ語質問応答タスクに特化して微調整され、タイ語質問応答データセットで良好な性能を発揮します。
複数データセットによる訓練
iapp_wiki_qa_squad、thaiqa_squad、nsc_qaなどの複数のタイ語質問応答データセットを使用して訓練されています。
データ前処理
訓練時に、検証セットとテストセットとのコサイン類似度が0.8を超えるサンプルを削除し、コンテキストを裁剪しました。
モデル能力
タイ語質問応答
テキスト理解
回答抽出
使用事例
教育
学校情報の質問応答
学校の歴史、性質などに関する質問に答える質問応答システム
例えば、「ローズガーデンはどのような学校ですか」といった質問に正確に答えることができます。
カスタマーサービス
タイ語FAQシステム
タイ語のよくある質問の自動回答システムを構築する
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98