Microsoft.naturelm 8x7B Inst GGUF
NatureLM-8x7B-Inst的量化版本,旨在讓知識為每個人所用。
大型語言模型
M
DevQuasar
244
1
Arxiver Insightsumm T5 Finetuned Model GGUF
Apache-2.0
基於T5架構的靜態量化模型,專注於學術論文摘要生成任務
文本生成 英語
A
mradermacher
131
0
Arsh Llm
MIT
Arsh LLM是為科研設計的開源大語言模型,基於olmo混合數據集在T4 GPU上完成預訓練,總耗時約4-5天。
大型語言模型
A
arshiaafshani
162
3
Bio Medical Llama 3 2 1B CoT 012025
其他
基於Llama-3.2-1B-Instruct微調的生物醫學專用模型,包含62.5萬樣本訓練數據,特別加入2.5萬條思維鏈(CoT)指導樣本增強推理能力
大型語言模型
Transformers

B
ContactDoctor
3,941
29
Extractive Summarization
MIT
該模型是基於t5-small微調的版本,專為使用PubMed數據集總結科學和醫學文本而優化。
文本生成 英語
E
nyamuda
94
0
Chemllm 7B Chat 1 5 SFT
其他
ChemLLM-7B-Chat-1.5-SFT 是首個面向化學和分子科學領域的開源大語言模型,基於 InternLM-2 構建,專為化學和分子科學領域打造。
大型語言模型
Safetensors 支持多種語言
C
AI4Chem
452
4
TF ID Large
MIT
TF-ID是專門用於提取學術論文中表格和圖表的視覺目標檢測模型,基於Florence-2微調而成
目標檢測
Transformers

T
yifeihu
9,893
21
Pubmed Summarization
Apache-2.0
基於T5-small微調的PubMed文獻摘要生成模型,用於自動生成醫學文獻的簡潔摘要。
文本生成
Transformers

P
mreisman
17
1
Led Pubmed Sumpubmed 1
這是一個基於LED架構的生物醫學論文摘要生成模型,專門針對PubMed文獻進行優化。
文本生成
Transformers 支持多種語言

L
Blaise-g
13
0
Biomednlp PubMedBERT Base Uncased Abstract Fulltext Pub Section
Apache-2.0
基於PubMedBERT微調的生物醫學文獻章節分類模型,用於識別文本所屬的文獻章節類型
文本分類
Transformers 英語

B
ml4pubmed
748
5
Molt5 Small
Apache-2.0
MOLT5-small 是一個基於預訓練模型的分子與自然語言轉換模型,能夠實現分子結構與自然語言描述之間的相互轉換。
分子模型
Transformers

M
laituan245
443
2
Scifive Base Pubmed PMC
SciFive是一個專門針對生物醫學文獻的文本到文本轉換模型,基於PubMed和PMC開放獲取期刊全文庫訓練。
大型語言模型 英語
S
razent
754
6
Scifive Base PMC
SciFive是一個專門針對生物醫學文獻的文本到文本轉換模型,基於PMC開放獲取數據集訓練。
大型語言模型
Transformers 英語

S
razent
52
0
Arxiv27k T5 Abst Title Gen
Apache-2.0
基於mt5-small微調的論文摘要生成標題模型,在arxiv數據集上訓練4小時完成
文本生成
Transformers

A
emre
22
0
Bart Large Finetuned Pubmed
Apache-2.0
基於BART-large架構在生物醫學論文摘要數據集上微調的文本生成模型
文本生成
Transformers

B
Kevincp560
20
1
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98