Microsoft.naturelm 8x7B Inst GGUF
NatureLM-8x7B-Inst的量化版本,旨在让知识为每个人所用。
大型语言模型
M
DevQuasar
244
1
Arxiver Insightsumm T5 Finetuned Model GGUF
Apache-2.0
基于T5架构的静态量化模型,专注于学术论文摘要生成任务
文本生成 英语
A
mradermacher
131
0
Arsh Llm
MIT
Arsh LLM是为科研设计的开源大语言模型,基于olmo混合数据集在T4 GPU上完成预训练,总耗时约4-5天。
大型语言模型
A
arshiaafshani
162
3
Bio Medical Llama 3 2 1B CoT 012025
其他
基于Llama-3.2-1B-Instruct微调的生物医学专用模型,包含62.5万样本训练数据,特别加入2.5万条思维链(CoT)指导样本增强推理能力
大型语言模型
Transformers

B
ContactDoctor
3,941
29
Extractive Summarization
MIT
该模型是基于t5-small微调的版本,专为使用PubMed数据集总结科学和医学文本而优化。
文本生成 英语
E
nyamuda
94
0
Chemllm 7B Chat 1 5 SFT
其他
ChemLLM-7B-Chat-1.5-SFT 是首个面向化学和分子科学领域的开源大语言模型,基于 InternLM-2 构建,专为化学和分子科学领域打造。
大型语言模型
Safetensors 支持多种语言
C
AI4Chem
452
4
TF ID Base No Caption
MIT
TF-ID是一系列经过微调的目标检测模型,用于提取学术论文中的表格和图片,解决学术论文中表格和图片自动识别的问题。
图像生成文本
Transformers

T
yifeihu
1,747
0
TF ID Large
MIT
TF-ID是专门用于提取学术论文中表格和图表的视觉目标检测模型,基于Florence-2微调而成
目标检测
Transformers

T
yifeihu
9,893
21
Pubmed Summarization
Apache-2.0
基于T5-small微调的PubMed文献摘要生成模型,用于自动生成医学文献的简洁摘要。
文本生成
Transformers

P
mreisman
17
1
Led Pubmed Sumpubmed 1
这是一个基于LED架构的生物医学论文摘要生成模型,专门针对PubMed文献进行优化。
文本生成
Transformers 支持多种语言

L
Blaise-g
13
0
Biomednlp PubMedBERT Base Uncased Abstract Fulltext Pub Section
Apache-2.0
基于PubMedBERT微调的生物医学文献章节分类模型,用于识别文本所属的文献章节类型
文本分类
Transformers 英语

B
ml4pubmed
748
5
Molt5 Small
Apache-2.0
MOLT5-small 是一个基于预训练模型的分子与自然语言转换模型,能够实现分子结构与自然语言描述之间的相互转换。
分子模型
Transformers

M
laituan245
443
2
Scifive Base Pubmed PMC
SciFive是一个专门针对生物医学文献的文本到文本转换模型,基于PubMed和PMC开放获取期刊全文库训练。
大型语言模型 英语
S
razent
754
6
Scifive Base PMC
SciFive是一个专门针对生物医学文献的文本到文本转换模型,基于PMC开放获取数据集训练。
大型语言模型
Transformers 英语

S
razent
52
0
Arxiv27k T5 Abst Title Gen
Apache-2.0
基于mt5-small微调的论文摘要生成标题模型,在arxiv数据集上训练4小时完成
文本生成
Transformers

A
emre
22
0
Bart Large Finetuned Pubmed
Apache-2.0
基于BART-large架构在生物医学论文摘要数据集上微调的文本生成模型
文本生成
Transformers

B
Kevincp560
20
1
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98