# 科研辅助工具

Microsoft.naturelm 8x7B Inst GGUF
NatureLM-8x7B-Inst的量化版本,旨在让知识为每个人所用。
大型语言模型
M
DevQuasar
244
1
Arxiver Insightsumm T5 Finetuned Model GGUF
Apache-2.0
基于T5架构的静态量化模型,专注于学术论文摘要生成任务
文本生成 英语
A
mradermacher
131
0
Arsh Llm
MIT
Arsh LLM是为科研设计的开源大语言模型,基于olmo混合数据集在T4 GPU上完成预训练,总耗时约4-5天。
大型语言模型
A
arshiaafshani
162
3
Bio Medical Llama 3 2 1B CoT 012025
其他
基于Llama-3.2-1B-Instruct微调的生物医学专用模型,包含62.5万样本训练数据,特别加入2.5万条思维链(CoT)指导样本增强推理能力
大型语言模型 Transformers
B
ContactDoctor
3,941
29
Extractive Summarization
MIT
该模型是基于t5-small微调的版本,专为使用PubMed数据集总结科学和医学文本而优化。
文本生成 英语
E
nyamuda
94
0
Chemllm 7B Chat 1 5 SFT
其他
ChemLLM-7B-Chat-1.5-SFT 是首个面向化学和分子科学领域的开源大语言模型,基于 InternLM-2 构建,专为化学和分子科学领域打造。
大型语言模型 Safetensors 支持多种语言
C
AI4Chem
452
4
TF ID Base No Caption
MIT
TF-ID是一系列经过微调的目标检测模型,用于提取学术论文中的表格和图片,解决学术论文中表格和图片自动识别的问题。
图像生成文本 Transformers
T
yifeihu
1,747
0
TF ID Large
MIT
TF-ID是专门用于提取学术论文中表格和图表的视觉目标检测模型,基于Florence-2微调而成
目标检测 Transformers
T
yifeihu
9,893
21
Pubmed Summarization
Apache-2.0
基于T5-small微调的PubMed文献摘要生成模型,用于自动生成医学文献的简洁摘要。
文本生成 Transformers
P
mreisman
17
1
Led Pubmed Sumpubmed 1
这是一个基于LED架构的生物医学论文摘要生成模型,专门针对PubMed文献进行优化。
文本生成 Transformers 支持多种语言
L
Blaise-g
13
0
Biomednlp PubMedBERT Base Uncased Abstract Fulltext Pub Section
Apache-2.0
基于PubMedBERT微调的生物医学文献章节分类模型,用于识别文本所属的文献章节类型
文本分类 Transformers 英语
B
ml4pubmed
748
5
Molt5 Small
Apache-2.0
MOLT5-small 是一个基于预训练模型的分子与自然语言转换模型,能够实现分子结构与自然语言描述之间的相互转换。
分子模型 Transformers
M
laituan245
443
2
Scifive Base Pubmed PMC
SciFive是一个专门针对生物医学文献的文本到文本转换模型,基于PubMed和PMC开放获取期刊全文库训练。
大型语言模型 英语
S
razent
754
6
Scifive Base PMC
SciFive是一个专门针对生物医学文献的文本到文本转换模型,基于PMC开放获取数据集训练。
大型语言模型 Transformers 英语
S
razent
52
0
Arxiv27k T5 Abst Title Gen
Apache-2.0
基于mt5-small微调的论文摘要生成标题模型,在arxiv数据集上训练4小时完成
文本生成 Transformers
A
emre
22
0
Bart Large Finetuned Pubmed
Apache-2.0
基于BART-large架构在生物医学论文摘要数据集上微调的文本生成模型
文本生成 Transformers
B
Kevincp560
20
1
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase