D

Distilbert Word2vec 256k MLM 250k

vocab-transformersによって開発
このモデルはword2vec単語埋め込みとDistilBERTアーキテクチャを組み合わせており、自然言語処理タスクに適しています。単語埋め込み層は大規模コーパスで訓練され凍結された状態を保持し、モデルはマスク言語モデリングによってファインチューニングされます。
ダウンロード数 21
リリース時間 : 4/7/2022

モデル概要

word2vec単語埋め込みを組み合わせた軽量なBERTバリアントで、効率的なテキスト表現と言語理解タスクに適しています。

モデル特徴

効率的な単語埋め込み
100GBの大規模コーパスで訓練されたword2vec単語埋め込み行列を採用し、256kの語彙を含みます
軽量アーキテクチャ
DistilBERTに基づく軽量設計で、性能を維持しながら計算リソース要件を削減
凍結された単語埋め込み
MLM訓練プロセス中に単語埋め込み層パラメータを凍結し、上位構造の学習に集中

モデル能力

テキスト表現学習
言語モデルのファインチューニング
文脈理解

使用事例

自然言語処理
テキスト分類
文書分類、感情分析などのタスクに使用可能
情報検索
検索関連性ランキングとクエリ理解の改善
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase