M

M2 BERT 128 Retrieval Encoder V1

Developed by hazyresearch
M2-BERT-128は論文『Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT』で提案された8000万パラメータの検索モデルチェックポイント
Downloads 19
Release Time : 2/10/2024

Model Overview

BERTアーキテクチャを最適化した長文脈検索モデルで、768次元の検索埋め込みベクトルを生成

Model Features

長文脈処理能力
長文脈検索タスクに特化して最適化
高効率検索埋め込み
768次元の高品質な検索埋め込みベクトルを生成可能
Monarch Mixerアーキテクチャ
革新的なMonarch Mixer構造で従来のBERTを改良

Model Capabilities

テキスト埋め込み生成
意味検索
長文脈処理

Use Cases

情報検索
文書検索システム
意味的類似性に基づく文書検索システムの構築
質問応答システム
質問応答システムにおける関連段落検索に使用
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase