🚀 感情分析BERTモデル
このプロジェクトは、感情分析を行うためのBERTベースのモデルで、logasanjeev/emotion - analyzer - bert
をベースに構築されています。多様な感情分類タスクに対応しており、テキストの感情分析やセンチメント分析に役立ちます。
🚀 クイックスタート
概要
このモデルは、https://huggingface.co/logasanjeev/emotion - analyzer - bert の静的量子化バージョンです。
利用方法
GGUFファイルの使い方がわからない場合は、[TheBlokeのREADME](https://huggingface.co/TheBloke/KafkaLM - 70B - German - V0.1 - GGUF) を参照してください。ここには、マルチパートファイルの結合方法も含めた詳細な情報が記載されています。
📚 ドキュメント
提供される量子化モデル
(サイズ順に並べられており、必ずしも品質を反映しているわけではありません。IQ量子化は、同程度のサイズの非IQ量子化よりも優れていることが多いです)
リンク |
タイプ |
サイズ(GB) |
備考 |
[GGUF](https://huggingface.co/mradermacher/emotion - analyzer - bert - GGUF/resolve/main/emotion - analyzer - bert.Q2_K.gguf) |
Q2_K |
0.2 |
|
[GGUF](https://huggingface.co/mradermacher/emotion - analyzer - bert - GGUF/resolve/main/emotion - analyzer - bert.Q3_K_S.gguf) |
Q3_K_S |
0.2 |
|
[GGUF](https://huggingface.co/mradermacher/emotion - analyzer - bert - GGUF/resolve/main/emotion - analyzer - bert.Q3_K_M.gguf) |
Q3_K_M |
0.2 |
低品質 |
[GGUF](https://huggingface.co/mradermacher/emotion - analyzer - bert - GGUF/resolve/main/emotion - analyzer - bert.IQ4_XS.gguf) |
IQ4_XS |
0.2 |
|
[GGUF](https://huggingface.co/mradermacher/emotion - analyzer - bert - GGUF/resolve/main/emotion - analyzer - bert.Q3_K_L.gguf) |
Q3_K_L |
0.2 |
|
[GGUF](https://huggingface.co/mradermacher/emotion - analyzer - bert - GGUF/resolve/main/emotion - analyzer - bert.Q4_K_S.gguf) |
Q4_K_S |
0.2 |
高速、推奨 |
[GGUF](https://huggingface.co/mradermacher/emotion - analyzer - bert - GGUF/resolve/main/emotion - analyzer - bert.Q4_K_M.gguf) |
Q4_K_M |
0.2 |
高速、推奨 |
[GGUF](https://huggingface.co/mradermacher/emotion - analyzer - bert - GGUF/resolve/main/emotion - analyzer - bert.Q5_K_S.gguf) |
Q5_K_S |
0.2 |
|
[GGUF](https://huggingface.co/mradermacher/emotion - analyzer - bert - GGUF/resolve/main/emotion - analyzer - bert.Q5_K_M.gguf) |
Q5_K_M |
0.2 |
|
[GGUF](https://huggingface.co/mradermacher/emotion - analyzer - bert - GGUF/resolve/main/emotion - analyzer - bert.Q6_K.gguf) |
Q6_K |
0.2 |
非常に高品質 |
[GGUF](https://huggingface.co/mradermacher/emotion - analyzer - bert - GGUF/resolve/main/emotion - analyzer - bert.Q8_0.gguf) |
Q8_0 |
0.2 |
高速、最高品質 |
[GGUF](https://huggingface.co/mradermacher/emotion - analyzer - bert - GGUF/resolve/main/emotion - analyzer - bert.f16.gguf) |
f16 |
0.3 |
16 bpw、過剰 |
ikawrakowによる低品質量子化タイプの比較グラフです(値が低いほど良い):

また、Artefact2のこの問題に関する考え方はこちらです:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
よくある質問 / モデルリクエスト
質問に対する回答や、他のモデルの量子化を依頼したい場合は、https://huggingface.co/mradermacher/model_requests を参照してください。
📄 ライセンス
このモデルはMITライセンスの下で提供されています。
🔧 詳細情報
属性 |
詳情 |
ベースモデル |
logasanjeev/emotion - analyzer - bert |
データセット |
google - research - datasets/go_emotions |
言語 |
en |
ライブラリ名 |
transformers |
量子化担当者 |
mradermacher |
タグ |
text - classification, transformers, pytorch, onnx, multi - label - classification, multi - class - classification, emotion, bert, go_emotions, emotion - classification, sentiment - analysis |
🙏 謝辞
私の会社 nethype GmbH に感謝します。彼らは私に会社のサーバーを利用させ、ワークステーションのアップグレードを提供してくれたおかげで、私は余暇時間にこの作業を行うことができました。