# 科研辅助

Bytedance Seed.academic Ds 9B GGUF
本项目提供了academic-ds-9B的量化版本,旨在让知识为每个人所用。
大型语言模型
B
DevQuasar
277
1
Scientific Paper Summarizer
基于PEGASUS架构微调的科学论文摘要生成专用模型
文本生成
S
Harsit
40
3
Scientific Paper Summarization
Apache-2.0
基于T5-small微调的科学论文摘要生成模型,能够从科学论文中提取关键信息生成摘要。
文本生成 Transformers
S
GilbertKrantz
22
1
Chemvlm 26B
MIT
ChemVLM是一个多模态大语言模型,专注于化学领域的应用,结合了文本和图像处理能力。
图像生成文本 Transformers
C
AI4Chem
53
21
Chemllm 7B Chat 1 5 DPO
其他
首个开源的化学与分子科学大语言模型,基于InternLM-2构建,专注于化学与分子科学领域。
大型语言模型 Transformers 支持多种语言
C
AI4Chem
237
16
Pllama 13b Instruct
Apache-2.0
基于LLaMa-2-13b-base架构优化的植物科学领域大语言模型,通过150万篇植物科学论文持续预训练和指令微调
大型语言模型 Transformers
P
Xianjun
26
5
Pllama 7b Base
Apache-2.0
PLLaMa是基于LLaMa-2在150万篇植物科学学术文章上持续训练的大语言模型,专为植物科学领域优化。
大型语言模型 Transformers
P
Xianjun
155
4
Biology
MIT
基于GPT-2微调的生物学领域模型,具体训练数据和用途未明确说明
大型语言模型 Transformers
B
ashakthy
17
1
Autotrain Stripped Data Training Biobart 90151144184
这是一个通过AutoTrain平台训练的摘要生成模型,基于BioBART架构,适用于文本摘要任务。
文本生成 Transformers 其他
A
gpadam
27
0
PMC LLAMA 7B
Apache-2.0
PMC_LLaMA_7B是基于LLaMA-7b在S2ORC数据集中的PMC论文上进行微调的版本,专注于医疗领域的文本生成任务。
大型语言模型 Transformers
P
chaoyi-wu
813
63
Sapbert From Pubmedbert Squad2
该模型是基于PubMedBERT在squad_v2数据集上微调的问答系统模型,适用于医疗领域的问答任务。
问答系统 Transformers
S
bigwiz83
362
0
Bart Base Finetuned Pubmed
Apache-2.0
该模型是基于facebook/bart-base在pub_med_summarization_dataset数据集上微调的版本,主要用于医学文献摘要生成任务。
文本生成 Transformers
B
Kevincp560
141
0
Bart Large Cnn Finetuned Pubmed
MIT
基于BART-large-cnn在医学文献摘要数据集上微调的文本生成模型,擅长医学文献摘要生成任务
文本生成 Transformers
B
Kevincp560
126
2
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase