Chinese Llama 2 13b 16k
完全な中文LLaMA-2-13B-16Kモデルで、16Kの文脈長をサポートし、直接ロードして推論と全パラメータ訓練を行うことができます。
Downloads 10.62k
Release Time : 8/25/2023
Model Overview
Metaが公開したLlama-2を拡張した中文大規模言語モデルで、中文語彙を拡張・最適化し、長文脈処理をサポートしています。
Model Features
長文脈サポート
16Kの文脈長をサポートし、NTK方法を使用すると18K以上に拡張できます。
中文最適化
新しい中文語彙表を拡張し、大規模な中文データを使用して増分事前学習を行います。
完全モデルサポート
直接ロードできる完全なモデルを提供し、全パラメータ訓練をサポートします。
エコシステム互換性
LLaMAエコシステムをサポートし、transformers、llama.cpp、text-generation-webuiなどが利用可能です。
Model Capabilities
中文テキスト生成
長文理解
指令追従
対話システム
意味理解
Use Cases
自然言語処理
長文書要約
長文書を処理し、正確な要約を生成します。
16K以上の文脈長の文書処理をサポートします。
中文対話システム
流暢な中文対話AIを構築します。
最適化された中文理解と生成能力を備えています。
教育
中文学習支援
学習者が中文コンテンツを理解し、生成するのを支援します。
正確な中文言語モデルのサポートを提供します。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98