Qwen2.5 0.5B Instruct Gensyn Swarm Fierce Placid Whale
基於Gensyn/Qwen2.5-0.5B-Instruct微調的版本,採用TRL框架和GRPO算法訓練
大型語言模型
Transformers

Q
gangchen
3,053
2
Videollama2 72B
Apache-2.0
VideoLLaMA 2是一個多模態大語言模型,專注於視頻理解和時空建模,支持視頻和圖像輸入,能夠進行視覺問答和對話任務。
文本生成視頻
Transformers 英語

V
DAMO-NLP-SG
26
10
Bloomz 560m Retriever V2
Openrail
基於Bloomz-560m-dpo-chat模型的雙編碼器,用於將文章和查詢映射到同一向量空間,支持法語和英語的跨語言檢索。
文本嵌入
Transformers 支持多種語言

B
cmarkea
17
2
JARVIS
Apache-2.0
基於因果語言建模(CLM)架構的對話AI,專為自然語言交互設計,能夠生成連貫且符合上下文的響應。
大型語言模型
Transformers 支持多種語言

J
VAIBHAV22334455
38
12
CAG Mistral 7b
MIT
基於Mistral-7B微調的70億參數可信度感知生成模型,具備理解並運用上下文可信度進行內容生成的能力。
大型語言模型
Transformers 英語

C
ruotong-pan
37
1
Bloomz 3b Reranking
Openrail
基於Bloomz-3b構建的跨語言重排序模型,用於衡量查詢與上下文之間的語義相關性,支持法語和英語。
大型語言模型
Transformers 支持多種語言

B
cmarkea
115
1
Rtlcoder Deepseek V1.1
Apache-2.0
該模型的具體信息未在提供的論文中明確描述。
大型語言模型
Transformers

R
ishorn5
232
4
Blurdus 7b V0.1
Apache-2.0
Blurdus-7b-v0.1是通過LazyMergekit合併三個7B參數模型得到的混合模型,在多個基準測試中表現優異。
大型語言模型
Transformers

B
gate369
80
1
Smol Llama 101M Chat V1
Apache-2.0
一個101M參數的輕量級Llama聊天模型,基於smol_llama-101M-GQA微調,適用於對話生成任務。
大型語言模型
Transformers 英語

S
Felladrin
127
10
Q Align Iqa
MIT
這是一個通過arXiv論文2312.17090發佈的多模態模型,可能具備文本和視覺處理能力
大型語言模型
Transformers

Q
q-future
43
1
Idefics 9b Instruct
其他
IDEFICS 是 Deepmind 開發的閉源視覺語言模型 Flamingo 的開源復現版本,是一個多模態模型,可以接受任意序列的圖像和文本輸入,並生成文本輸出。
圖像生成文本
Transformers 英語

I
HuggingFaceM4
28.34k
104
Instructblip Vicuna 7b
其他
InstructBLIP是基於BLIP-2的視覺指令調優版本,採用Vicuna-7B作為語言模型,專注於視覺語言任務。
圖像生成文本
Transformers 英語

I
Salesforce
20.99k
91
Promptcap Coco Vqa
Openrail
PromptCap是一個可通過自然語言指令控制的圖像描述生成模型,支持視覺問答和通用描述生成任務。
圖像生成文本
Transformers 英語

P
tifa-benchmark
121
12
Bert Finetuned On Nq Short
一個在完整Natural Questions(NQ)數據集上訓練的開放領域問答模型,能夠回答各種事實性問題
大型語言模型
Transformers

B
eibakke
13
1
Spar Wiki Bm25 Lexmodel Query Encoder
基於BERT-base架構的密集檢索器,在維基百科文章上訓練,旨在模仿BM25的行為
文本嵌入
Transformers

S
facebook
80
2
Spar Wiki Bm25 Lexmodel Context Encoder
基於BERT-base架構的稠密檢索器,通過維基百科文章訓練以模仿BM25的行為
文本嵌入
Transformers

S
facebook
68
0
BERT NLP
一個多功能的大語言模型,能夠處理各種自然語言處理任務(推斷信息)
大型語言模型
B
subbareddyiiit
18
0
Kogpt2 Base V2
KoGPT2 是由 SKT-AI 開發的韓語 GPT-2 模型,基於 Transformer 架構,適用於多種韓語文本生成任務。
大型語言模型 韓語
K
skt
105.25k
47
Dpr Question Encoder Multiset Base
基於BERT的密集段落檢索(DPR)問題編碼器,用於開放領域問答研究,在多個QA數據集上訓練
問答系統
Transformers 英語

D
facebook
17.51k
4
Reasonbert RoBERTa
基於RoBERTa架構的預訓練模型,針對問答等任務進行了優化,具備更強的推理能力。
大型語言模型
Transformers

R
Anonymous
13
0
Sparta Msmarco Distilbert Base V1
SPARTA是基於稀疏Transformer匹配檢索的高效開放域問答模型,用於信息檢索任務。
問答系統
Transformers

S
BeIR
50
2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98