Grc Alignment
G
Grc Alignment
由UGARIT開發
基於XLM-RoBERTa架構的多語種詞彙級文本對齊模型,專為古希臘語與其他語言的文本對齊任務優化
下載量 48
發布時間 : 5/7/2022
模型概述
該模型通過預訓練和微調實現古希臘語與多種語言(英語、拉丁語、格魯吉亞語等)的詞彙級文本對齊,適用於古典文獻研究和翻譯對齊任務
模型特點
多語言對齊能力
支持古希臘語與英語、拉丁語、格魯吉亞語等多種語言的詞彙級對齊
專業領域優化
在1200萬單語古希臘語詞彙上預訓練,針對古典文獻特點優化
高質量訓練數據
使用珀爾修斯數字圖書館等權威來源的4.5萬句平行語料進行微調
模型能力
古希臘語-英語文本對齊
古希臘語-拉丁語文本對齊
古希臘語-格魯吉亞語文本對齊
跨語言詞彙級對齊
古典文獻翻譯對齊
使用案例
古典文獻研究
荷馬史詩對齊分析
對《伊利亞特》和《奧德賽》的古希臘語原文與英語翻譯進行詞彙級對齊
對齊錯誤率19.73%(GRC-ENG)
歷史文獻跨語言比對
古希臘歷史學家著作與拉丁語譯本的對齊分析
對齊錯誤率10.60%(GRC-LAT)
數字人文工具
翻譯對齊編輯器集成
為UGARIT翻譯對齊編輯器提供自動對齊功能
支持5種語言組合
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98