Videollama2 72B
Apache-2.0
VideoLLaMA 2はマルチモーダル大規模言語モデルで、動画理解と時空間モデリングに特化しており、動画や画像の入力をサポートし、視覚的質問応答や対話タスクが可能です。
テキスト生成ビデオ
Transformers 英語

V
DAMO-NLP-SG
26
10
Bloomz 560m Retriever V2
Openrail
Bloomz-560m-dpo-chatモデルを基にしたデュアルエンコーダで、記事とクエリを同一のベクトル空間にマッピングし、フランス語と英語の多言語検索をサポートします。
テキスト埋め込み
Transformers 複数言語対応

B
cmarkea
17
2
Llama4some SOVL 4x8B L3 V1
これはmergekitを使用して複数の事前学習済み言語モデルを統合して得られたエキスパート混合モデルで、最も制約のないテキスト生成能力を創造することを目的としています。
大規模言語モデル
Transformers

L
saishf
22
3
Mistral 7B OpenOrca Q4 K M GGUF
Apache-2.0
このモデルはOpen-Orca/Mistral-7B-OpenOrcaから変換されたGGUF形式のモデルで、テキスト生成タスクに適しています。
大規模言語モデル 英語
M
munish0838
81
2
CAG Mistral 7b
MIT
Mistral-7Bをファインチューニングした70億パラメータの信頼性認識生成モデルで、コンテキストの信頼性を理解し活用してコンテンツを生成する能力を備えています。
大規模言語モデル
Transformers 英語

C
ruotong-pan
37
1
Bloomz 3b Reranking
Openrail
Bloomz-3bを基に構築された言語横断的リランキングモデルで、クエリとコンテキスト間の意味的関連性を測定し、フランス語と英語をサポートします。
大規模言語モデル
Transformers 複数言語対応

B
cmarkea
115
1
Rtlcoder Deepseek V1.1
Apache-2.0
このモデルの具体的な情報は提供された論文で明確に記載されていません。
大規模言語モデル
Transformers

R
ishorn5
232
4
Idefics 9b Instruct
その他
IDEFICSはDeepmindが開発したクローズドソースの視覚言語モデルFlamingoのオープンソース再現版で、任意のシーケンスの画像とテキスト入力を受け取り、テキスト出力を生成できるマルチモーダルモデルです。
画像生成テキスト
Transformers 英語

I
HuggingFaceM4
28.34k
104
Instructblip Vicuna 7b
その他
InstructBLIPはBLIP-2をベースにした視覚的指示チューニング版で、Vicuna-7Bを言語モデルとして採用し、視覚言語タスクに特化しています。
画像生成テキスト
Transformers 英語

I
Salesforce
20.99k
91
Promptcap Coco Vqa
Openrail
PromptCapは自然言語の指示で制御可能な画像記述生成モデルで、視覚的質問応答と一般的な記述生成タスクをサポートします。
画像生成テキスト
Transformers 英語

P
tifa-benchmark
121
12
Bert Finetuned On Nq Short
完全なNatural Questions(NQ)データセットで訓練されたオープンドメイン質問応答モデルで、様々な事実質問に回答可能
大規模言語モデル
Transformers

B
eibakke
13
1
Spar Wiki Bm25 Lexmodel Query Encoder
BERT-baseアーキテクチャに基づく高密度検索器で、ウィキペディア記事で訓練され、BM25の動作を模倣することを目的としています
テキスト埋め込み
Transformers

S
facebook
80
2
Spar Wiki Bm25 Lexmodel Context Encoder
BERT-baseアーキテクチャに基づく高密度検索器で、Wikipedia記事で訓練されBM25の動作を模倣
テキスト埋め込み
Transformers

S
facebook
68
0
Dpr Question Encoder Multiset Base
BERTベースの密集パラグラフ検索(DPR)の質問エンコーダーで、オープンドメイン質問応答研究に使用され、複数のQAデータセットで訓練されています。
質問応答システム
Transformers 英語

D
facebook
17.51k
4
Reasonbert RoBERTa
RoBERTaアーキテクチャに基づく事前学習モデルで、質問応答などのタスクに対して最適化され、より強力な推論能力を備えています。
大規模言語モデル
Transformers

R
Anonymous
13
0
Sparta Msmarco Distilbert Base V1
SPARTAは疎なTransformerを用いたマッチング検索に基づく、情報検索タスクに使用される効率的なオープンドメイン質問応答モデルです。
質問応答システム
Transformers

S
BeIR
50
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98