EEVE Korean 2.8B V1.0
microsoft/phi-2を基にした韓国語語彙拡張バージョンで、韓国語ウェブスクレイピングデータセットに特化してファインチューニングされ、韓国語の理解能力が強化されています。
ダウンロード数 2,087
リリース時間 : 2/22/2024
モデル概要
このモデルは、新しいトークンの埋め込みを事前学習し、既存のトークンの`lm_head`埋め込みを部分的にファインチューニングすることで、基本モデルの韓国語理解能力を拡張しつつ、元のパラメータを保持しています。
モデル特徴
韓国語語彙拡張
新しいトークンの埋め込みを事前学習し、既存のトークンの`lm_head`埋め込みを部分的にファインチューニングすることで、モデルの韓国語理解能力を拡張しました。
多段階パラメータ凍結訓練
7段階のパラメータ凍結訓練プロセスを採用し、入力埋め込みから完全なパラメータへと段階的に訓練することで、モデルの語彙量を効果的に拡張しました。
効率的なクロスランゲージ転移
基本モデルの固有能力を活用し、知識と推論能力を韓国語に効率的に転移させ、適応プロセスを最適化しました。
モデル能力
韓国語テキスト生成
韓国語言語理解
因果的言語モデリング
使用事例
自然言語処理
韓国語テキスト生成
一貫性があり文脈に合った韓国語テキストを生成します。
韓国語言語理解
韓国語テキストを理解し処理するため、様々なNLPタスクに適用可能です。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98