Kanana 1.5 2.1b Instruct 2505
Kanana 1.5はKakaoが開発したバイリンガル大規模言語モデルで、プログラミング、数学、関数呼び出し能力が大幅に向上し、32Kトークンのコンテキスト長をサポート、YaRN拡張技術により128Kトークンの超長文処理が可能です。
ダウンロード数 1,361
リリース時間 : 5/21/2025
モデル概要
Kanana 1.5は高効率計算のバイリンガル大規模言語モデルで、プログラミング、数学、関数呼び出し能力の向上に重点を置き、複雑なシナリオや長文処理に適しています。
モデル特徴
強化されたプログラミング能力
HumanEvalやMBPPなどのプログラミングベンチマークで優れた性能を発揮
数学的推論能力
GSM8KやMATHなどの数学ベンチマークで高得点を獲得
長文処理
ネイティブで32Kトークンのコンテキスト長をサポート、YaRN拡張により128Kトークン処理可能
バイリンガルサポート
英語と韓国語の同時処理をサポート
最適化された対話能力
最適化された後訓練プロセスにより、より自然で正確な対話応答が可能
モデル能力
テキスト生成
コード生成
数学問題解答
長文理解
バイリンガル処理
命令追従
使用事例
プログラミング支援
コード生成
自然言語の記述に基づいてコードを生成
HumanEvalテストで68.90点を達成
コード補完
コンテキストに基づいてコードを自動補完
MBPP+テストで65.08点を達成
数学応用
数学問題解答
複雑な数学問題を解決
GSM8Kゼロショットテストで81.43点を達成
対話システム
インテリジェントカスタマーサービス
自然で流暢なバイリンガルカスタマーサービス対話を提供
MT-Benchテストで7.01点を達成
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98