Sentence Transformers Experimental Hubert Hungarian
S
Sentence Transformers Experimental Hubert Hungarian
NYTKによって開発
huBERT事前学習モデルを微調整したハンガリー語の文埋め込みモデルで、文類似度タスク専用に設計
ダウンロード数 379
リリース時間 : 7/11/2023
モデル概要
このモデルは平均プーリング法でhuBERT出力の文埋め込み表現を取得し、ハンガリー語の文類似度計算タスクに適しています
モデル特徴
ハンガリー語最適化
ハンガリー語専用に微調整され、Hunglish 2.0並列コーパスで訓練
効率的な訓練
単一のGTX 1080Ti GPUでわずか15時間で訓練完了
軽量デプロイ
最大シーケンス長128文字に制限され、リソースが限られた環境に適しています
モデル能力
文埋め込み生成
文類似度計算
ハンガリー語テキスト処理
使用事例
テキスト類似度
意味検索
ハンガリー語ドキュメントの意味的類似性検索に使用
質問応答システム
ユーザーの質問とナレッジベース内の類似質問をマッチング
自然言語処理
テキストクラスタリング
意味的に類似したハンガリー語の文をグループ化
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98