🚀 Speechless-llama3.2-v0.1 の日本語版README
このプロジェクトは、音声言語モデルに関するもので、特定のベースモデルを使用し、指定されたデータセットで訓練されています。提供される量子化されたモデルは、様々な用途に利用できます。
🚀 クイックスタート
このセクションでは、モデルの基本的な情報や使用方法の概要を説明します。
モデル情報
プロパティ |
詳細 |
ベースモデル |
Menlo/Speechless-llama3.2-v0.1 |
データセット |
homebrewltd/Ichigo-tokenized-v0.1 |
言語 |
英語、ベトナム語 |
ライブラリ名 |
transformers |
ライセンス |
apache-2.0 |
量子化者 |
mradermacher |
タグ |
音声言語モデル、音声テキスト変換、torchtune、whisperspeech |
✨ 主な機能
このモデルは、音声言語モデルであり、音声テキスト変換などの機能を提供します。また、torchtuneやwhisperspeechなどの技術が利用されています。
📦 インストール
READMEにインストール手順が具体的に記載されていないため、このセクションは省略します。
💻 使用例
READMEに具体的なコード例が記載されていないため、このセクションは省略します。
📚 ドキュメント
概要
このモデルは、https://huggingface.co/Menlo/Speechless-llama3.2-v0.1 の重み付き/imatrix量子化モデルです。静的な量子化モデルは、https://huggingface.co/mradermacher/Speechless-llama3.2-v0.1-GGUF で利用できます。
使用方法
GGUFファイルの使用方法がわからない場合は、TheBlokeのREADMEを参照してください。ここには、マルチパートファイルの結合方法などの詳細が記載されています。
提供される量子化モデル
(サイズでソートされており、必ずしも品質を表しているわけではありません。IQ量子化モデルは、同じサイズの非IQ量子化モデルよりも優れていることが多いです。)
リンク |
タイプ |
サイズ(GB) |
備考 |
GGUF |
i1-IQ1_S |
0.5 |
非常に必要な場合 |
GGUF |
i1-IQ1_M |
0.5 |
ほとんど必要な場合 |
GGUF |
i1-IQ2_XXS |
0.6 |
|
GGUF |
i1-IQ2_XS |
0.6 |
|
GGUF |
i1-IQ2_S |
0.6 |
|
GGUF |
i1-IQ2_M |
0.6 |
|
GGUF |
i1-Q2_K_S |
0.7 |
非常に低品質 |
GGUF |
i1-IQ3_XXS |
0.7 |
低品質 |
GGUF |
i1-Q2_K |
0.7 |
IQ3_XXSの方が良い可能性があります |
GGUF |
i1-IQ3_XS |
0.7 |
|
GGUF |
i1-Q3_K_S |
0.7 |
IQ3_XSの方が良い可能性があります |
GGUF |
i1-IQ3_S |
0.7 |
Q3_K*より良い |
GGUF |
i1-IQ3_M |
0.8 |
|
GGUF |
i1-Q3_K_M |
0.8 |
IQ3_Sの方が良い可能性があります |
GGUF |
i1-Q3_K_L |
0.8 |
IQ3_Mの方が良い可能性があります |
GGUF |
i1-IQ4_XS |
0.8 |
|
GGUF |
i1-IQ4_NL |
0.9 |
IQ4_XSを選ぶことをおすすめします |
GGUF |
i1-Q4_0 |
0.9 |
高速、低品質 |
GGUF |
i1-Q4_K_S |
0.9 |
最適なサイズ/速度/品質 |
GGUF |
i1-Q4_K_M |
0.9 |
高速、おすすめ |
GGUF |
i1-Q4_1 |
0.9 |
|
GGUF |
i1-Q5_K_S |
1.0 |
|
GGUF |
i1-Q5_K_M |
1.0 |
|
GGUF |
i1-Q6_K |
1.1 |
実質的に静的なQ6_Kと同じ |
ikawrakowによる、いくつかの低品質な量子化タイプを比較した便利なグラフです(値が低い方が良い):

また、Artefact2によるこの問題に関する考察はこちらです:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
FAQ / モデルリクエスト
質問に対する回答や、他のモデルの量子化を依頼する場合は、https://huggingface.co/mradermacher/model_requests を参照してください。
🔧 技術詳細
READMEに具体的な技術詳細が記載されていないため、このセクションは省略します。
📄 ライセンス
このモデルは、apache-2.0ライセンスの下で提供されています。
謝辞
私の会社であるnethype GmbHには、サーバーを使用させていただき、ワークステーションをアップグレードしてくれたことに感謝します。これにより、私は余暇時間にこの作業を行うことができました。また、@nicobossには、彼のプライベートなスーパーコンピューターへのアクセスを許可してくれたことに感謝します。これにより、私は通常よりもはるかに高品質で多くのimatrix量子化を提供することができました。