M2 BERT 128 Retrieval Encoder V1
M
M2 BERT 128 Retrieval Encoder V1
Developed by hazyresearch
M2-BERT-128は論文『Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT』で提案された8000万パラメータの検索モデルチェックポイント
Downloads 19
Release Time : 2/10/2024
Model Overview
BERTアーキテクチャを最適化した長文脈検索モデルで、768次元の検索埋め込みベクトルを生成
Model Features
長文脈処理能力
長文脈検索タスクに特化して最適化
高効率検索埋め込み
768次元の高品質な検索埋め込みベクトルを生成可能
Monarch Mixerアーキテクチャ
革新的なMonarch Mixer構造で従来のBERTを改良
Model Capabilities
テキスト埋め込み生成
意味検索
長文脈処理
Use Cases
情報検索
文書検索システム
意味的類似性に基づく文書検索システムの構築
質問応答システム
質問応答システムにおける関連段落検索に使用
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98