Llama 3 VNTL Yollisa 8B I1 GGUF
これはCasual-Autopsy/Llama-3-VNTL-Yollisa-8Bの重み付け/行列量子化バージョンで、英語と日本語の処理に適しており、特に日本のメディア、オタクメディア、ビジュアルノベル(VNs)分野に特化しています。
ダウンロード数 116
リリース時間 : 3/5/2025
モデル概要
このモデルはLlama-3アーキテクチャに基づく8Bパラメータモデルで、リソース要件を低減するために量子化処理が施されており、英語と日本語をサポートし、翻訳と日本メディアコンテンツ処理に焦点を当てています。
モデル特徴
多言語サポート
英語と日本語をサポートし、特に日本のメディアやオタク文化関連コンテンツの処理に適しています。
量子化バージョンの多様性
極低品質のIQ1_Sから高品質のQ6_Kまで、さまざまな量子化バージョンを提供し、異なるハードウェア要件に対応します。
ビジュアルノベルに特化
モデルはビジュアルノベル(VNs)分野に最適化されており、関連するテキストコンテンツの処理に適しています。
モデル能力
テキスト生成
翻訳
日本語テキスト処理
英語テキスト処理
使用事例
メディアコンテンツ処理
ビジュアルノベル翻訳
日本語のビジュアルノベルを英語に翻訳、またはその逆を行います。
日本メディアコンテンツ生成
日本のメディアに関連するテキストコンテンツを生成または処理します。
多言語アプリケーション
多言語チャットボット
英語と日本語をサポートするチャットボットを構築します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98