# 開放域問答

Qwen2.5 0.5B Instruct Gensyn Swarm Fierce Placid Whale
基於Gensyn/Qwen2.5-0.5B-Instruct微調的版本,採用TRL框架和GRPO算法訓練
大型語言模型 Transformers
Q
gangchen
3,053
2
Videollama2 72B
Apache-2.0
VideoLLaMA 2是一個多模態大語言模型,專注於視頻理解和時空建模,支持視頻和圖像輸入,能夠進行視覺問答和對話任務。
文本生成視頻 Transformers 英語
V
DAMO-NLP-SG
26
10
Bloomz 560m Retriever V2
Openrail
基於Bloomz-560m-dpo-chat模型的雙編碼器,用於將文章和查詢映射到同一向量空間,支持法語和英語的跨語言檢索。
文本嵌入 Transformers 支持多種語言
B
cmarkea
17
2
JARVIS
Apache-2.0
基於因果語言建模(CLM)架構的對話AI,專為自然語言交互設計,能夠生成連貫且符合上下文的響應。
大型語言模型 Transformers 支持多種語言
J
VAIBHAV22334455
38
12
CAG Mistral 7b
MIT
基於Mistral-7B微調的70億參數可信度感知生成模型,具備理解並運用上下文可信度進行內容生成的能力。
大型語言模型 Transformers 英語
C
ruotong-pan
37
1
Bloomz 3b Reranking
Openrail
基於Bloomz-3b構建的跨語言重排序模型,用於衡量查詢與上下文之間的語義相關性,支持法語和英語。
大型語言模型 Transformers 支持多種語言
B
cmarkea
115
1
Rtlcoder Deepseek V1.1
Apache-2.0
該模型的具體信息未在提供的論文中明確描述。
大型語言模型 Transformers
R
ishorn5
232
4
Blurdus 7b V0.1
Apache-2.0
Blurdus-7b-v0.1是通過LazyMergekit合併三個7B參數模型得到的混合模型,在多個基準測試中表現優異。
大型語言模型 Transformers
B
gate369
80
1
Smol Llama 101M Chat V1
Apache-2.0
一個101M參數的輕量級Llama聊天模型,基於smol_llama-101M-GQA微調,適用於對話生成任務。
大型語言模型 Transformers 英語
S
Felladrin
127
10
Q Align Iqa
MIT
這是一個通過arXiv論文2312.17090發佈的多模態模型,可能具備文本和視覺處理能力
大型語言模型 Transformers
Q
q-future
43
1
Idefics 9b Instruct
其他
IDEFICS 是 Deepmind 開發的閉源視覺語言模型 Flamingo 的開源復現版本,是一個多模態模型,可以接受任意序列的圖像和文本輸入,並生成文本輸出。
圖像生成文本 Transformers 英語
I
HuggingFaceM4
28.34k
104
Instructblip Vicuna 7b
其他
InstructBLIP是基於BLIP-2的視覺指令調優版本,採用Vicuna-7B作為語言模型,專注於視覺語言任務。
圖像生成文本 Transformers 英語
I
Salesforce
20.99k
91
Promptcap Coco Vqa
Openrail
PromptCap是一個可通過自然語言指令控制的圖像描述生成模型,支持視覺問答和通用描述生成任務。
圖像生成文本 Transformers 英語
P
tifa-benchmark
121
12
Bert Finetuned On Nq Short
一個在完整Natural Questions(NQ)數據集上訓練的開放領域問答模型,能夠回答各種事實性問題
大型語言模型 Transformers
B
eibakke
13
1
Spar Wiki Bm25 Lexmodel Query Encoder
基於BERT-base架構的密集檢索器,在維基百科文章上訓練,旨在模仿BM25的行為
文本嵌入 Transformers
S
facebook
80
2
Spar Wiki Bm25 Lexmodel Context Encoder
基於BERT-base架構的稠密檢索器,通過維基百科文章訓練以模仿BM25的行為
文本嵌入 Transformers
S
facebook
68
0
BERT NLP
一個多功能的大語言模型,能夠處理各種自然語言處理任務(推斷信息)
大型語言模型
B
subbareddyiiit
18
0
Kogpt2 Base V2
KoGPT2 是由 SKT-AI 開發的韓語 GPT-2 模型,基於 Transformer 架構,適用於多種韓語文本生成任務。
大型語言模型 韓語
K
skt
105.25k
47
Dpr Question Encoder Multiset Base
基於BERT的密集段落檢索(DPR)問題編碼器,用於開放領域問答研究,在多個QA數據集上訓練
問答系統 Transformers 英語
D
facebook
17.51k
4
Reasonbert RoBERTa
基於RoBERTa架構的預訓練模型,針對問答等任務進行了優化,具備更強的推理能力。
大型語言模型 Transformers
R
Anonymous
13
0
Sparta Msmarco Distilbert Base V1
SPARTA是基於稀疏Transformer匹配檢索的高效開放域問答模型,用於信息檢索任務。
問答系統 Transformers
S
BeIR
50
2
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase