M

M2 Bert 80M 8k Retrieval

togethercomputerによって開発
これは8000万パラメータのM2-BERT事前学習チェックポイントで、シーケンス長は8192に達し、長文脈検索タスク向けにファインチューニングされています。
ダウンロード数 198
リリース時間 : 11/4/2023

モデル概要

Monarch Mixer-BERTモデルは、GEMMベースの準二次複雑度のシンプルなアーキテクチャで、長文脈検索タスク向けに設計されています。

モデル特徴

長シーケンス処理
最大8192のシーケンス長をサポートし、長文脈検索タスクに適しています。
効率的なアーキテクチャ
GEMMベースの準二次複雑度のシンプルなアーキテクチャで、計算効率が高いです。
事前学習とファインチューニング
事前学習され、検索タスク向けにファインチューニングされており、768次元の検索埋め込みベクトルを生成します。

モデル能力

文類似度計算
長文検索
埋め込みベクトル生成

使用事例

情報検索
ドキュメント検索
大量のドキュメントから関連ドキュメントを検索するために使用されます。
質問応答システム
質問応答システムで関連する回答を検索するために使用されます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase