Bytedance Seed.academic Ds 9B GGUF
本项目提供了academic-ds-9B的量化版本,旨在让知识为每个人所用。
大型语言模型
B
DevQuasar
277
1
Scientific Paper Summarizer
基于PEGASUS架构微调的科学论文摘要生成专用模型
文本生成
S
Harsit
40
3
Scientific Paper Summarization
Apache-2.0
基于T5-small微调的科学论文摘要生成模型,能够从科学论文中提取关键信息生成摘要。
文本生成
Transformers

S
GilbertKrantz
22
1
Chemvlm 26B
MIT
ChemVLM是一个多模态大语言模型,专注于化学领域的应用,结合了文本和图像处理能力。
图像生成文本
Transformers

C
AI4Chem
53
21
Chemllm 7B Chat 1 5 DPO
其他
首个开源的化学与分子科学大语言模型,基于InternLM-2构建,专注于化学与分子科学领域。
大型语言模型
Transformers 支持多种语言

C
AI4Chem
237
16
Pllama 13b Instruct
Apache-2.0
基于LLaMa-2-13b-base架构优化的植物科学领域大语言模型,通过150万篇植物科学论文持续预训练和指令微调
大型语言模型
Transformers

P
Xianjun
26
5
Pllama 7b Base
Apache-2.0
PLLaMa是基于LLaMa-2在150万篇植物科学学术文章上持续训练的大语言模型,专为植物科学领域优化。
大型语言模型
Transformers

P
Xianjun
155
4
Biology
MIT
基于GPT-2微调的生物学领域模型,具体训练数据和用途未明确说明
大型语言模型
Transformers

B
ashakthy
17
1
Autotrain Stripped Data Training Biobart 90151144184
这是一个通过AutoTrain平台训练的摘要生成模型,基于BioBART架构,适用于文本摘要任务。
文本生成
Transformers 其他

A
gpadam
27
0
PMC LLAMA 7B
Apache-2.0
PMC_LLaMA_7B是基于LLaMA-7b在S2ORC数据集中的PMC论文上进行微调的版本,专注于医疗领域的文本生成任务。
大型语言模型
Transformers

P
chaoyi-wu
813
63
Sapbert From Pubmedbert Squad2
该模型是基于PubMedBERT在squad_v2数据集上微调的问答系统模型,适用于医疗领域的问答任务。
问答系统
Transformers

S
bigwiz83
362
0
Bart Base Finetuned Pubmed
Apache-2.0
该模型是基于facebook/bart-base在pub_med_summarization_dataset数据集上微调的版本,主要用于医学文献摘要生成任务。
文本生成
Transformers

B
Kevincp560
141
0
Bart Large Cnn Finetuned Pubmed
MIT
基于BART-large-cnn在医学文献摘要数据集上微调的文本生成模型,擅长医学文献摘要生成任务
文本生成
Transformers

B
Kevincp560
126
2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98