# 科研輔助工具

Microsoft.naturelm 8x7B Inst GGUF
NatureLM-8x7B-Inst的量化版本,旨在讓知識為每個人所用。
大型語言模型
M
DevQuasar
244
1
Arxiver Insightsumm T5 Finetuned Model GGUF
Apache-2.0
基於T5架構的靜態量化模型,專注於學術論文摘要生成任務
文本生成 英語
A
mradermacher
131
0
Arsh Llm
MIT
Arsh LLM是為科研設計的開源大語言模型,基於olmo混合數據集在T4 GPU上完成預訓練,總耗時約4-5天。
大型語言模型
A
arshiaafshani
162
3
Bio Medical Llama 3 2 1B CoT 012025
其他
基於Llama-3.2-1B-Instruct微調的生物醫學專用模型,包含62.5萬樣本訓練數據,特別加入2.5萬條思維鏈(CoT)指導樣本增強推理能力
大型語言模型 Transformers
B
ContactDoctor
3,941
29
Extractive Summarization
MIT
該模型是基於t5-small微調的版本,專為使用PubMed數據集總結科學和醫學文本而優化。
文本生成 英語
E
nyamuda
94
0
Chemllm 7B Chat 1 5 SFT
其他
ChemLLM-7B-Chat-1.5-SFT 是首個面向化學和分子科學領域的開源大語言模型,基於 InternLM-2 構建,專為化學和分子科學領域打造。
大型語言模型 Safetensors 支持多種語言
C
AI4Chem
452
4
TF ID Large
MIT
TF-ID是專門用於提取學術論文中表格和圖表的視覺目標檢測模型,基於Florence-2微調而成
目標檢測 Transformers
T
yifeihu
9,893
21
Pubmed Summarization
Apache-2.0
基於T5-small微調的PubMed文獻摘要生成模型,用於自動生成醫學文獻的簡潔摘要。
文本生成 Transformers
P
mreisman
17
1
Led Pubmed Sumpubmed 1
這是一個基於LED架構的生物醫學論文摘要生成模型,專門針對PubMed文獻進行優化。
文本生成 Transformers 支持多種語言
L
Blaise-g
13
0
Biomednlp PubMedBERT Base Uncased Abstract Fulltext Pub Section
Apache-2.0
基於PubMedBERT微調的生物醫學文獻章節分類模型,用於識別文本所屬的文獻章節類型
文本分類 Transformers 英語
B
ml4pubmed
748
5
Molt5 Small
Apache-2.0
MOLT5-small 是一個基於預訓練模型的分子與自然語言轉換模型,能夠實現分子結構與自然語言描述之間的相互轉換。
分子模型 Transformers
M
laituan245
443
2
Scifive Base Pubmed PMC
SciFive是一個專門針對生物醫學文獻的文本到文本轉換模型,基於PubMed和PMC開放獲取期刊全文庫訓練。
大型語言模型 英語
S
razent
754
6
Scifive Base PMC
SciFive是一個專門針對生物醫學文獻的文本到文本轉換模型,基於PMC開放獲取數據集訓練。
大型語言模型 Transformers 英語
S
razent
52
0
Arxiv27k T5 Abst Title Gen
Apache-2.0
基於mt5-small微調的論文摘要生成標題模型,在arxiv數據集上訓練4小時完成
文本生成 Transformers
A
emre
22
0
Bart Large Finetuned Pubmed
Apache-2.0
基於BART-large架構在生物醫學論文摘要數據集上微調的文本生成模型
文本生成 Transformers
B
Kevincp560
20
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase