Inria Roberta
模型概述
該模型是基於海量文本數據訓練的大規模語言模型,能夠理解和生成自然語言文本,適用於多種NLP任務
模型特點
長上下文理解
支持長達8K token的上下文窗口,能保持長文對話的連貫性
多任務適配
單一模型可適應多種下游任務而無需微調
安全機制
內置內容過濾和安全響應機制 (推斷信息)
模型能力
文本生成
問答系統
文本摘要
代碼生成
文本分類
機器翻譯
使用案例
內容創作
文章自動生成
根據關鍵詞或大綱自動生成完整文章
可生成符合主題的連貫文本
智能客服
自動問答系統
處理客戶諮詢並提供準確回答
減少人工客服工作量
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98