# 科研輔助

Bytedance Seed.academic Ds 9B GGUF
本項目提供了academic-ds-9B的量化版本,旨在讓知識為每個人所用。
大型語言模型
B
DevQuasar
277
1
Scientific Paper Summarizer
基於PEGASUS架構微調的科學論文摘要生成專用模型
文本生成
S
Harsit
40
3
Scientific Paper Summarization
Apache-2.0
基於T5-small微調的科學論文摘要生成模型,能夠從科學論文中提取關鍵信息生成摘要。
文本生成 Transformers
S
GilbertKrantz
22
1
TF ID Large No Caption
MIT
TF-ID是一系列目標檢測模型,專門用於提取學術論文中的表格和圖片及其標題文本。
圖像生成文本 Transformers
T
yifeihu
1,944
2
Chemvlm 26B
MIT
ChemVLM是一個多模態大語言模型,專注於化學領域的應用,結合了文本和圖像處理能力。
圖像生成文本 Transformers
C
AI4Chem
53
21
Chemllm 7B Chat 1 5 DPO
其他
首個開源的化學與分子科學大語言模型,基於InternLM-2構建,專注於化學與分子科學領域。
大型語言模型 Transformers 支持多種語言
C
AI4Chem
237
16
Pllama 13b Instruct
Apache-2.0
基於LLaMa-2-13b-base架構優化的植物科學領域大語言模型,通過150萬篇植物科學論文持續預訓練和指令微調
大型語言模型 Transformers
P
Xianjun
26
5
Pllama 7b Base
Apache-2.0
PLLaMa是基於LLaMa-2在150萬篇植物科學學術文章上持續訓練的大語言模型,專為植物科學領域優化。
大型語言模型 Transformers
P
Xianjun
155
4
Biology
MIT
基於GPT-2微調的生物學領域模型,具體訓練數據和用途未明確說明
大型語言模型 Transformers
B
ashakthy
17
1
Autotrain Stripped Data Training Biobart 90151144184
這是一個通過AutoTrain平臺訓練的摘要生成模型,基於BioBART架構,適用於文本摘要任務。
文本生成 Transformers 其他
A
gpadam
27
0
PMC LLAMA 7B
Apache-2.0
PMC_LLaMA_7B是基於LLaMA-7b在S2ORC數據集中的PMC論文上進行微調的版本,專注於醫療領域的文本生成任務。
大型語言模型 Transformers
P
chaoyi-wu
813
63
Sapbert From Pubmedbert Squad2
該模型是基於PubMedBERT在squad_v2數據集上微調的問答系統模型,適用於醫療領域的問答任務。
問答系統 Transformers
S
bigwiz83
362
0
Bart Base Finetuned Pubmed
Apache-2.0
該模型是基於facebook/bart-base在pub_med_summarization_dataset數據集上微調的版本,主要用於醫學文獻摘要生成任務。
文本生成 Transformers
B
Kevincp560
141
0
Bart Large Cnn Finetuned Pubmed
MIT
基於BART-large-cnn在醫學文獻摘要數據集上微調的文本生成模型,擅長醫學文獻摘要生成任務
文本生成 Transformers
B
Kevincp560
126
2
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase