Xlm Roberta Large Vi Qa
模型概述
該模型是基於xlm-roberta-large架構微調的越南語問答模型,專門用於處理越南語的抽取式問答任務。它在越南語問答數據集上表現出色,F1值達到0.969。
模型特點
多語言支持
基於XLM-RoBERTa架構,具備處理多語言任務的能力
高精度越南語問答
在越南語問答任務上F1值達到0.969,表現優異
遷移學習能力
基於deepset/xlm-roberta-large-squad2微調,具備良好的遷移學習能力
模型能力
越南語文本理解
抽取式問答
多語言處理
使用案例
問答系統
越南語FAQ系統
構建越南語常見問題自動回答系統
在dev數據集上精確匹配率達136/141
文檔信息提取
從越南語文檔中提取特定問題的答案
F1值達到0.969
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98