Vicuna Baichuan 13b Chat
基於Baichaun-13B-chat的Vicuna微調對話模型,在通用對話和醫療諮詢方面表現優異。
下載量 44
發布時間 : 8/7/2023
模型概述
基於Baichaun-13B-chat微調的對話模型,使用10萬條多語言GPT4高質量對話數據微調,在通用對話和醫療諮詢方面達到領先水平。
模型特點
強大的中英文基礎
基於baichuan-inc/Baichuan-13B-Chat微調,具備強大的中英文處理能力。
高質量對話數據微調
使用10萬條多語言GPT4高質量對話數據微調,在通用對話和醫療諮詢方面表現優異。
通用問題回答能力
通用問題回答能力不遜於原版Baichuan-13B-Chat。
模型能力
文本生成
對話系統
醫療諮詢
使用案例
醫療諮詢
兒童發燒用藥諮詢
回答關於兒童發燒用藥的問題
提供詳細的用藥建議,包括退燒藥、抗生素等,並強調遵醫囑使用。
通用對話
日常問答
回答各種日常問題
提供準確、詳細的回答,表現不遜於原版Baichuan-13B-Chat。
🚀 Vicuna Baichuan-13B模型
基於Baichaun-13B-chat的Vicuna微調對話模型,在中文開放測試集中表現優異,繼承了強大中英文底座模型的優勢,且在通用對話,尤其是醫療行業答覆能力上達到領先水平。
🚀 快速開始
本項目開源在以下github倉庫:
使用textgen庫:textgen,可調用Baichuan/LLaMA模型。
✨ 主要特性
- 強大底座:微調訓練的底座是 baichuan-inc/Baichuan-13B-Chat 模型,是較強的中英文底座模型。
- 高質量數據集微調:使用高質量10萬條多語言GPT4對話數據集進行微調,在通用對話,包括醫療行業答覆能力達到領先水平,在通用問題上的答覆能力不弱於Baichuan-13B-Chat。
📦 安裝指南
使用textgen庫
pip install -U textgen
使用HuggingFace Transformers
pip install transformers
💻 使用示例
基礎用法(使用textgen庫)
from textgen import GptModel
def generate_prompt(instruction):
return f"""A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions.USER: {instruction} ASSISTANT: """
model = GptModel("baichuan", "shibing624/vicuna-baichuan-13b-chat")
predict_sentence = generate_prompt("一歲寶寶發燒能吃啥藥?")
r = model.predict([predict_sentence])
print(r) # ["1、首先大多數小兒退熱藥中含有解熱鎮痛成分阿司匹林或布洛芬等,這類藥品雖然副作用較少..."]
高級用法(使用HuggingFace Transformers)
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig
model = AutoModelForCausalLM.from_pretrained("shibing624/vicuna-baichuan-13b-chat", device_map='auto', torch_dtype=torch.float16, trust_remote_code=True)
model.generation_config = GenerationConfig.from_pretrained("shibing624/vicuna-baichuan-13b-chat", trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained("shibing624/vicuna-baichuan-13b-chat", trust_remote_code=True)
device = torch.device(0) if torch.cuda.is_available() else torch.device("cpu")
def generate_prompt(instruction):
return f"""A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions.USER: {instruction} ASSISTANT: """
sents = ['一歲寶寶發燒能吃啥藥', "who are you?"]
for s in sents:
q = generate_prompt(s)
inputs = tokenizer(q, return_tensors="pt")
inputs = inputs.to(device)
generate_ids = model.generate(
**inputs,
max_new_tokens=512,
)
output = tokenizer.batch_decode(generate_ids, skip_special_tokens=True)[0]
print(output)
print()
輸出示例
一歲寶寶發燒能吃啥藥
孩子的身體是很脆弱的,如果不注意保護好自己就會出現各種疾病。有些家長在看到孩子生病後都非常著急,想要立刻給他們用藥治療,但其實並沒有那麼簡單,因為每個人對於藥物的敏感度和耐受性都是不同的,所以我們需要根據具體情況來選擇合適的方法進行治療才可以達到最佳效果。1、首先大多數小兒退熱藥中含有解熱鎮痛成分阿司匹林或布洛芬等,這類藥品雖然副作用較少,但也存在過量使用引起胃腸道損傷甚至消化道潰瘍出血的風險;2、還有部分小兒退熱藥中含有撲爾敏等抗組胺藥,它們本身屬於處方藥,應該嚴格按照醫囑服用,切勿擅自加減劑量或者延長用藥時間;3、此外,某些小兒退熱藥中含有維生素C及葡萄糖酸鈣等營養補充劑,只有當患兒伴隨脫水症狀(如口渴、尿色深)時才考慮添加,否則容易造成電解質紊亂。
📚 詳細文檔
模型評估
shibing624/vicuna-baichuan-13b-chat 評估測試數據,模型在問答 測試 中的整體表現如下:
輸入文本 | 預測結果 |
---|---|
一歲寶寶發燒能吃啥藥? | 1歲寶寶發燒時,可以考慮以下幾種藥物: 1. 退燒藥:如布洛芬(Ibuprofen)或對乙酰氨基酚(Paracetamol)。這些藥物可以幫助降低體溫,緩解發燒症狀。 2. 抗生素:如果發燒是由細菌感染引起的,可以考慮使用抗生素。但請務必在醫生的建議下使用。 3. 抗病毒藥物:如果發燒是由病毒感染引起的,可以考慮使用抗病毒藥物。但請務必在醫生的建議下使用。 4. 解熱鎮痛藥:如阿司匹林(Aspirin)或對乙酰氨基酚(Paracetamol)。這些藥物可以幫助緩解發燒症狀。 5. 抗組胺藥:如苯海拉明(Diphenhydramine)或非索非那定(Naproxen)。這些藥物可以幫助緩解發燒症狀。 請務必在醫生的建議下使用這些藥物,並遵循藥物說明書上的用量和用法。同時,保持寶寶充足的水分攝入,並確保寶寶有足夠的休息。 |
推理示例
人類提問 | 模型回覆 |
---|---|
小孩發燒怎麼辦 | 發燒是身體對感染或其他疾病的自然反應。以下是一些可以幫助緩解發燒症狀的建議: 1. 保持身體水分充足:發燒時,身體會失去水分,因此需要保持水分充足。 2. 使用冰袋:將冰袋放在額頭或頸部可以幫助降低體溫。 3. 使用退燒藥:退燒藥可以幫助降低體溫。 4. 保持身體溫度:保持身體溫度可以幫助降低體溫。 5. 使用冷水或溫水擦拭身體:使用冷水或溫水擦拭身體可以幫助降低體溫。 6. 使用退燒藥:退燒藥可以幫助降低體溫。 7. 保持身體溫度:保持身體溫度可以幫助降低體溫。 8. 使用冷水或溫水擦拭身體:使用冷水或溫水擦拭身體可以幫助降低體溫。 9. 使用退燒藥:退燒藥可以幫助降低體溫。 10. 保持身體溫度:保持身體溫度可以幫助降低體溫。 |
一歲寶寶發燒能吃啥藥? | 1歲寶寶發燒時,可以考慮以下幾種藥物: 1. 退燒藥:如布洛芬(Ibuprofen)或對乙酰氨基酚(Paracetamol)。這些藥物可以幫助降低體溫,緩解發燒症狀。 2. 抗生素:如果發燒是由細菌感染引起的,可以考慮使用抗生素。但請務必在醫生的建議下使用。 3. 抗病毒藥物:如果發燒是由病毒感染引起的,可以考慮使用抗病毒藥物。但請務必在醫生的建議下使用。 4. 解熱鎮痛藥:如阿司匹林(Aspirin)或對乙酰氨基酚(Paracetamol)。這些藥物可以幫助緩解發燒症狀。 5. 抗組胺藥:如苯海拉明(Diphenhydramine)或非索非那定(Naproxen)。這些藥物可以幫助緩解發燒症狀。 請務必在醫生的建議下使用這些藥物,並遵循藥物說明書上的用量和用法。同時,保持寶寶充足的水分攝入,並確保寶寶有足夠的休息。 |
肛門病變可能是什麼疾病的症狀 | 肛門病變可能由多種原因引起,包括感染、炎症、腫瘤或其他疾病。一些常見的肛門病變包括: 1. 肛裂:這是一種肛門皮膚撕裂,通常由便秘或其他壓力因素引起。 2. 肛瘻:這是一種肛門感染,導致肛門皮膚和直腸之間形成瘻管。 3. 肛門疣:這是一種肛門皮膚上形成的疣狀病變,通常由人類乳頭狀瘤病毒(HPV)引起。 4. 肛門膿腫:這是一種肛門感染,導致肛門皮膚下形成膿腫。 5. 肛門腫瘤:這是一種肛門皮膚或直腸內形成的腫瘤。 6. 肛門潰瘍:這是一種肛門皮膚上形成的潰瘍,通常由感染或炎症引起。 7. 肛門瘙癢:這是一種肛門皮膚瘙癢的症狀,可能由感染、炎症或其他疾病引起。 如果您有肛門病變的症狀,請諮詢醫療保健專業人員以獲得適當的診斷和治療。 |
醫生,您好白帶增多泛黃怎麼回事? | 您好,白帶增多和發黃可能是由多種原因引起的,包括感染、荷爾蒙變化、陰道乾燥或其他婦科問題。以下是一些可能的原因: 1. 感染:白帶增多和發黃可能是由陰道或尿道感染引起的。感染可能由細菌、病毒或真菌引起。 2. 荷爾蒙變化:荷爾蒙變化,如月經週期或更年期,可能會導致白帶增多和發黃。 3. 陰道乾燥:陰道乾燥可能會導致白帶增多和發黃。 4. 其他婦科問題:其他婦科問題,如子宮頸炎、子宮內膜炎或子宮內膜異位症,也可能導致白帶增多和發黃。 如果您擔心自己的白帶,建議您諮詢婦科醫生進行檢查和診斷。醫生可以根據您的症狀和檢查結果確定原因並提供適當的治療。 |
藥流後有巧克力白帶是沒流乾淨嗎 | 藥流後出現巧克力白帶並不一定意味著沒有流乾淨。巧克力白帶是由於子宮內膜脫落和出血引起的,通常在藥流後的一段時間內會出現。 藥流後出現巧克力白帶的原因可能包括: 1. 子宮內膜脫落:藥流後,子宮內膜會脫落,導致出血。這種出血可能表現為巧克力白帶。 2. 感染:藥流後,子宮內膜和宮頸口可能存在創傷,容易受到細菌感染。感染可能導致巧克力白帶。 3. 激素水平變化:藥流後,激素水平可能發生變化,導致巧克力白帶。 如果巧克力白帶持續時間較長,或者伴有其他症狀,如腹痛、發熱、分泌物異味等,建議及時就診,進行相關檢查,如婦科檢查、B超等,以確定是否存在感染或其他問題。在醫生的指導下進行相應的治療。 |
維胺酯維E乳膏能治理什麼疾病 | 維胺酯維E乳膏是一種外用藥物,主要用於治療痤瘡、脂溢性皮炎等皮膚病。它可以幫助減少皮膚油脂分泌,減輕炎症,促進皮膚修復。 需要注意的是,維胺酯維E乳膏並非萬能藥,對於某些皮膚病可能並不適用。在使用前,建議諮詢醫生或藥師,瞭解藥物的適應症、禁忌症、用法用量等信息。同時,使用藥物時應遵循醫囑,避免自行濫用。 |
痤瘡是什麼原因導致的? | 痤瘡,也稱為粉刺,是由皮膚毛孔堵塞引起的。堵塞毛孔的原因有很多,包括: 1. 皮脂腺過度活躍:皮脂腺產生過多油脂,導致毛孔堵塞。 2. 毛孔堵塞:皮膚表面的死皮細胞、油脂和細菌堵塞毛孔。 3. 炎症:痤瘡通常伴隨著炎症,這可能是由於皮膚感染或免疫系統對痤瘡的反應引起的。 4. 遺傳因素:某些人可能更容易患痤瘡,這可能是由於遺傳因素引起的。 5. 荷爾蒙變化:痤瘡在青春期和月經期間更為常見,這可能是由於荷爾蒙變化引起的。 6. 生活方式因素:某些生活方式因素,如壓力、不良飲食和缺乏運動,也可能導致痤瘡。 7. 化妝品和護膚品:某些化妝品和護膚品可能導致痤瘡,特別是那些含有刺激性成分的產品。 8. 藥物:某些藥物,如口服避孕藥,也可能導致痤瘡。 要預防痤瘡,可以採取一些措施,如保持皮膚清潔、使用溫和的護膚品、避免過度使用化妝品和護膚品、保持健康的生活方式和飲食習慣、避免壓力和荷爾蒙變化。如果痤瘡嚴重,可能需要尋求皮膚科醫生的幫助。 |
臉上長青春痘怎麼辦,能吃啥藥,需要注意啥 | 青春痘,又稱痤瘡,是一種常見的皮膚病。青春痘的治療需要綜合考慮飲食、生活習慣、藥物等多個方面。以下是一些建議: 1. 飲食: * 避免高糖、高脂、高油的食物,如快餐、甜點、油炸食品等。 * 多吃新鮮蔬菜、水果、全穀類食物,以增加纖維攝入,促進腸道蠕動。 * 避免攝入過多的咖啡因、酒精、辛辣食物等刺激性食物。 2. 生活習慣: * 保持良好的作息時間,保證充足的睡眠。 * 避免長時間使用電腦、手機等電子產品,以免輻射對皮膚造成刺激。 * 保持皮膚清潔,每天早晚使用溫和的潔面產品清潔皮膚。 * 避免擠壓青春痘,以免感染和留下疤痕。 3. 藥物: * 外用藥物:可以使用含有水楊酸、苯甲酸、壬二酸等成分的護膚品,幫助去除皮膚表面的角質,減少痘痘的形成。 * 口服藥物:如果青春痘嚴重,可以考慮口服抗生素、維生素B族、鋅等藥物,但需在醫生指導下使用。 4. 注意: * 不要隨意使用化妝品、護膚品,以免刺激皮膚。 * 不要過度清潔皮膚,以免破壞皮膚屏障。 * 保持心情舒暢,避免焦慮、抑鬱等負面情緒。 總之,青春痘的治療需要綜合考慮飲食、生活習慣、藥物等多個方面。在治療過程中,要保持耐心和信心,遵循醫生的建議,逐步改善皮膚狀況。 |
由於輸精管堵塞會不會導致男性不育?,醫生您好,我同事這幾天不開心,我問她怎麼了,她說她老公輸精管堵塞,所以一直沒孩子,不是不想要,請問輸精管堵塞會不會導致男性不育? | 輸精管堵塞可能會導致男性不育。輸精管是連接睪丸和尿道的一條管道,負責將精子從睪丸輸送到尿道。如果輸精管堵塞,精子就無法通過輸精管到達尿道,從而導致不育。 輸精管堵塞的原因有很多,包括先天性發育異常、炎症、腫瘤、外傷等。輸精管堵塞的治療方法包括手術疏通、藥物治療等。如果輸精管堵塞嚴重,可能需要進行手術疏通。 需要注意的是,輸精管堵塞並不一定導致不育,因為還有其他途徑可以將精子輸送到女性體內。例如,精子可以通過附睪、前列腺等組織到達女性體內。因此,如果輸精管堵塞,建議及時就醫,尋求專業醫生的幫助。 |
心肌梗塞能治療嗎? | 心肌梗死是一種嚴重的疾病,如果及時治療,可以挽救生命並防止長期殘疾。治療心肌梗死的關鍵是儘早識別和治療。 心肌梗死的治療通常包括以下步驟: 1. 立即就醫:如果出現胸痛、呼吸急促或暈厥等症狀,立即就醫。 2. 藥物治療:醫生可能會開處方藥物,如硝酸甘油或阿司匹林,以幫助緩解症狀並防止進一步的損傷。 3. 溶栓治療:如果患者在到達醫院前出現心肌梗死,醫生可能會進行溶栓治療,通過注射溶解血栓的藥物來幫助恢復血流。 4. 手術治療:如果藥物治療或溶栓治療無效,醫生可能會建議進行手術,如冠狀動脈搭橋手術或心臟支架植入術。 5. 康復和預防:心肌梗死的治療通常包括康復計劃,以幫助患者恢復身體功能並預防未來的心臟事件。此外,患者還應遵循醫生的建議,以降低患心臟病的風險。 需要注意的是,心肌梗死的治療取決於患者的具體情況和症狀。因此,如果您或您認識的人出現心肌梗死症狀,請立即就醫。 |
怎麼讓自己精力充沛,列5點建議 | 1. 保持充足的睡眠:睡眠對於保持精力充沛至關重要。確保每晚獲得7 - 9小時的高質量睡眠。 2. 均衡飲食:均衡飲食對於保持能量水平至關重要。確保攝入足夠的蛋白質、碳水化合物和健康脂肪。 3. 定期鍛鍊:定期鍛鍊可以幫助提高能量水平。嘗試每天進行至少30分鐘的有氧運動,如散步、跑步或騎自行車。 4. 管理壓力:壓力會消耗能量,因此管理壓力對於保持精力充沛至關重要。嘗試找到放鬆和減壓的方法,如冥想、瑜伽或深呼吸練習。 5. 保持水分:脫水會降低能量水平。確保每天喝足夠的水,並根據需要補充水分。 |
寫個春天的詩 | 春天, 是大地甦醒的季節, 是萬物復甦的季節, 是生命綻放的季節。 春天, 是陽光明媚的季節, 是鳥語花香的季節, 是綠意盎然的季節, 是希望無限的季節。 春天, 是人們歡笑的季節, 是孩子們嬉戲的季節, 是戀人們相擁的季節, 是人們追求夢想的季節。 |
南極洲為啥沒有北極熊? | 南極洲沒有北極熊,因為北極熊生活在北極地區,而南極洲位於南半球,氣候和環境與北極地區有很大不同。南極洲的氣候非常寒冷,常年被冰雪覆蓋,而北極熊則生活在北極地區,那裡有豐富的海洋生物和陸地哺乳動物。此外,南極洲的生態系統也與北極地區不同,沒有北極熊所需的生存條件。 |
模型文件組成
vicuna-baichuan-13b-chat
├── config.json
├── configuration_baichuan.py
├── generation_config.json
├── modeling_baichuan.py
├── pytorch_model-00001-of-00003.bin
├── pytorch_model-00002-of-00003.bin
├── pytorch_model-00003-of-00003.bin
├── pytorch_model.bin.index.json
├── quantizer.py
├── special_tokens_map.json
├── tokenization_baichuan.py
├── tokenizer_config.json
└── tokenizer.model
推理GPU要求
- Inference GPU: 27G
🔧 技術細節
訓練參數
{"per_device_train_batch_size": 2,
"per_device_eval_batch_size": 2,
"gradient_accumulation_steps": 1,
"learning_rate": 2e-05,
"num_train_epochs": 3.0,
"max_steps": -1,
"lr_scheduler_type": "linear",
"warmup_ratio": 0.0,
"warmup_steps": 50,
"save_strategy": "steps",
"save_steps": 500,
"save_total_limit": 13,
"seed": 42,
"bf16": true,
"fp16": false,
"eval_steps": 50,
"remove_unused_columns": false,
"load_best_model_at_end": true,
"metric_for_best_model": "loss",
"optim": "paged_adamw_32bit",
"report_to": ["tensorboard"],
}
訓練損失
- train loss: 1.3209
- evaluate loss: 1.4953
量化配置
訓練期間使用了以下 bitsandbytes
量化配置:
- load_in_8bit: False
- load_in_4bit: True
- llm_int8_threshold: 6.0
- llm_int8_skip_modules: None
- llm_int8_enable_fp32_cpu_offload: False
- llm_int8_has_fp16_weight: False
- bnb_4bit_quant_type: nf4
- bnb_4bit_use_double_quant: True
- bnb_4bit_compute_dtype: bfloat16
訓練數據集
- 10萬條多語言ShareGPT GPT4多輪對話數據集:shibing624/sharegpt_gpt4
訓練腳本
CUDA_VISIBLE_DEVICES=0,1,2 torchrun --nproc_per_node 3 supervised_finetuning.py \
--model_type baichuan \
--model_name_or_path baichuan-inc/Baichuan-13B-Chat \
--train_file_dir path_of_sharegpt_gpt4 \
--validation_file_dir data/finetune/ \
--per_device_train_batch_size 2 \
--per_device_eval_batch_size 2 \
--template_name vicuna \
--do_train \
--do_eval \
--use_peft True --bf16 \
--max_train_samples -1 \
--max_source_length 1024 --max_target_length 1024 \
--max_eval_samples 50 \
--num_train_epochs 3 \
--learning_rate 2e-5 \
--warmup_ratio 0.05 \
--weight_decay 0.05 \
--logging_strategy steps \
--logging_steps 10 \
--eval_steps 50 \
--evaluation_strategy steps \
--save_steps 1000 \
--save_strategy steps \
--save_total_limit 13 \
--preprocessing_num_workers 10 \
--output_dir outputs-sft--baichuan-v3-production \
--overwrite_output_dir \
--ddp_timeout 300000 \
--logging_first_step True \
--target_modules all \
--lora_rank 8 \
--lora_alpha 16 \
--lora_dropout 0.05 \
--torch_dtype bfloat16 --optim paged_adamw_32bit \
--device_map auto \
--report_to tensorboard \
--ddp_find_unused_parameters False \
--gradient_checkpointing True --qlora True --cache_dir ./cache
訓練機器及時間
- 機器:3*A100(40G)
- 時間:36hours
📄 許可證
本項目採用 apache-2.0
許可證。
📖 引用
@software{textgen,
author = {Ming Xu},
title = {textgen: Implementation of language model finetune},
year = {2023},
url = {https://github.com/shibing624/textgen},
}
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98