Kanana 1.5 2.1b Base
Kanana 1.5はKananaモデルファミリーの新バージョンで、コーディング、数学、関数呼び出し能力が大幅に向上し、32Kトークンの長さをサポートし、128Kトークンまで拡張可能です。
ダウンロード数 757
リリース時間 : 4/15/2025
モデル概要
Kanana 1.5は計算効率の高いバイリンガル言語モデルで、後処理プロセスを最適化し、より自然で正確な対話を実現し、複雑な現実問題や長文書の処理に適しています。
モデル特徴
強化されたコーディングと数学能力
前バージョンと比較してコーディング、数学、関数呼び出し能力が大幅に向上
長文コンテキストサポート
ネイティブで32Kトークン長をサポートし、YaRNを使用すると128Kトークンまで拡張可能
最適化された対話体験
最適化された後処理プロセスにより、より自然で正確な対話を実現
バイリンガルサポート
英語と韓国語の同時処理をサポート
モデル能力
テキスト生成
長文書処理
コード生成
数学問題解決
関数呼び出し
バイリンガル対話
使用事例
複雑問題解決
プログラミング問題解答
開発者がプログラミング問題やコードデバッグを解決するのを支援
HumanEvalスコア52.44、MBPPスコア47.00
数学問題解答
数学問題や導出を解決
GSM8Kスコア55.95
長文書処理
長文書要約
長文書の内容を処理・分析
32Kトークン原生長をサポートし、128Kトークンまで拡張可能
バイリンガルアプリケーション
英韓翻訳
英語と韓国語間の翻訳タスク
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98