Qwen2 7B Multilingual RP
Qwen2-7Bは多言語対応のロールプレイング大規模言語モデルで、英語、韓国語、日本語、中国語、スペイン語をサポートし、32kのコンテキスト長を有しています。
ダウンロード数 646
リリース時間 : 6/24/2024
モデル概要
このモデルは70億パラメータの多言語大規模言語モデルで、ロールプレイングシナリオに最適化されており、複数言語での自然な対話生成をサポートします。
モデル特徴
多言語サポート
英語、韓国語、日本語、中国語、スペイン語の5言語でのテキスト生成をサポート
長文コンテキスト処理
32k(32768)のコンテキスト長を有し、長い対話シーンに適しています
ロールプレイング最適化
ロールプレイングシナリオ向けに特別に最適化されており、キャラクター設定に沿った対話を生成可能
モデル能力
多言語テキスト生成
ロールプレイング対話
長文理解
自然言語インタラクション
使用事例
エンターテインメントアプリケーション
多言語ロールプレイングゲーム
ゲーム内でNPCとしてプレイヤーと多言語でインタラクション
没入感のある多言語ゲーム体験を提供
言語学習
言語練習パートナー
言語学習者の対話練習相手として
学習者が目標言語の表現力を向上させるのを支援
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98