Llama 3.1 70B Japanese Instruct 2407
これはMeta-Llama-3.1-70B-Instructを基に継続事前学習された日本語大規模言語モデルで、日本語と英語をサポートしています。
ダウンロード数 343
リリース時間 : 7/26/2024
モデル概要
このモデルはMeta-Llama-3.1-70B-Instructを基に継続事前学習された日本語大規模言語モデルで、日本語タスクに特化して最適化されており、英語能力も保持しています。
モデル特徴
日本語最適化
日本語に特化した継続事前学習を行い、日本語タスクで優れた性能を発揮
多言語サポート
日本語と英語を同時にサポートし、多言語シナリオに適している
大規模モデル能力
700億パラメータ規模で、強力な理解力と生成能力を備えている
モデル能力
日本語テキスト生成
英語テキスト生成
マルチターン会話
命令追従
使用事例
対話システム
インテリジェントカスタマーサポート
日本語カスタマーサービスの自動Q&Aシステム
パーソナルアシスタント
日本語環境での個人用デジタルアシスタント
コンテンツ作成
日本語記事生成
日本語の記事やレポートなどを自動生成
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98