Politbert
模型概述
該模型基於 BERT 架構,專門針對政治文本進行優化,可用於預測政治語境下的缺失詞彙或分析政治語言特徵。
模型特點
政治文本優化
專門針對政治人物的演講、訪談和新聞發佈會內容進行訓練,能更好地理解政治語境。
基於 BERT 架構
利用 BERT 的強大語言理解能力,在政治文本上表現更優。
簡單易用
提供標準的 Hugging Face 接口,便於集成到現有 NLP 流程中。
模型能力
政治文本分析
掩碼詞彙預測
政治語言特徵提取
使用案例
政治文本分析
政治人物言論分析
分析政治人物的演講或訪談內容,預測其可能使用的詞彙或表達方式。
政治傾向識別
通過模型對政治文本的處理,輔助識別文本中的政治傾向或立場。
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98