Bytedance Seed.academic Ds 9B GGUF
本項目提供了academic-ds-9B的量化版本,旨在讓知識為每個人所用。
大型語言模型
B
DevQuasar
277
1
Scientific Paper Summarizer
基於PEGASUS架構微調的科學論文摘要生成專用模型
文本生成
S
Harsit
40
3
Scientific Paper Summarization
Apache-2.0
基於T5-small微調的科學論文摘要生成模型,能夠從科學論文中提取關鍵信息生成摘要。
文本生成
Transformers

S
GilbertKrantz
22
1
TF ID Large No Caption
MIT
TF-ID是一系列目標檢測模型,專門用於提取學術論文中的表格和圖片及其標題文本。
圖像生成文本
Transformers

T
yifeihu
1,944
2
Chemvlm 26B
MIT
ChemVLM是一個多模態大語言模型,專注於化學領域的應用,結合了文本和圖像處理能力。
圖像生成文本
Transformers

C
AI4Chem
53
21
Chemllm 7B Chat 1 5 DPO
其他
首個開源的化學與分子科學大語言模型,基於InternLM-2構建,專注於化學與分子科學領域。
大型語言模型
Transformers 支持多種語言

C
AI4Chem
237
16
Pllama 13b Instruct
Apache-2.0
基於LLaMa-2-13b-base架構優化的植物科學領域大語言模型,通過150萬篇植物科學論文持續預訓練和指令微調
大型語言模型
Transformers

P
Xianjun
26
5
Pllama 7b Base
Apache-2.0
PLLaMa是基於LLaMa-2在150萬篇植物科學學術文章上持續訓練的大語言模型,專為植物科學領域優化。
大型語言模型
Transformers

P
Xianjun
155
4
Biology
MIT
基於GPT-2微調的生物學領域模型,具體訓練數據和用途未明確說明
大型語言模型
Transformers

B
ashakthy
17
1
Autotrain Stripped Data Training Biobart 90151144184
這是一個通過AutoTrain平臺訓練的摘要生成模型,基於BioBART架構,適用於文本摘要任務。
文本生成
Transformers 其他

A
gpadam
27
0
PMC LLAMA 7B
Apache-2.0
PMC_LLaMA_7B是基於LLaMA-7b在S2ORC數據集中的PMC論文上進行微調的版本,專注於醫療領域的文本生成任務。
大型語言模型
Transformers

P
chaoyi-wu
813
63
Sapbert From Pubmedbert Squad2
該模型是基於PubMedBERT在squad_v2數據集上微調的問答系統模型,適用於醫療領域的問答任務。
問答系統
Transformers

S
bigwiz83
362
0
Bart Base Finetuned Pubmed
Apache-2.0
該模型是基於facebook/bart-base在pub_med_summarization_dataset數據集上微調的版本,主要用於醫學文獻摘要生成任務。
文本生成
Transformers

B
Kevincp560
141
0
Bart Large Cnn Finetuned Pubmed
MIT
基於BART-large-cnn在醫學文獻摘要數據集上微調的文本生成模型,擅長醫學文獻摘要生成任務
文本生成
Transformers

B
Kevincp560
126
2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98