Gte En Mlm Base
GTE-v1.5シリーズの英語テキストエンコーダーで、BERTアーキテクチャを改良し、最大8192のコンテキスト長をサポート、英語テキスト表現タスクに適しています。
テキスト埋め込み
Safetensors Supports Multiple LanguagesOpen Source License:Apache-2.0#長文エンコーディング#英語専用#RoPE強化
Downloads 231
Release Time : 8/6/2024
Model Overview
このモデルはGTE-v1.5シリーズの英語テキストエンコーダーで、transformer++エンコーダーアーキテクチャ(BERT + RoPE + GLU)に基づき、英語テキスト表現のために設計され、長いコンテキスト処理をサポートします。
Model Features
長いコンテキストサポート
最大8192のコンテキスト長をサポートし、長文書や複雑なテキストの処理に適しています。
改良されたアーキテクチャ
BERTアーキテクチャを改良し、RoPEとGLUを追加することで、モデルの性能を向上させました。
段階的なトレーニング
段階的なトレーニング戦略を採用し、まず短いシーケンスで事前学習を行い、その後長いシーケンスで微調整を行うことで、長文処理能力を最適化しました。
Model Capabilities
テキストエンコーディング
長文処理
マスク言語モデリング
Use Cases
情報検索
ドキュメント検索
長文書の検索とマッチングに使用され、検索システムの精度を向上させます。
自然言語処理
テキスト表現
高品質なテキスト埋め込みを生成し、下流のNLPタスクに使用します。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98