モデル概要
モデル特徴
モデル能力
使用事例
🚀 huihui-ai/Qwen3-30B-A3B-abliterated-fp4
このモデルは、huihui-ai/Qwen3-30B-A3B-abliterated を4ビット量子化("bnb_4bit_quant_type": "fp4")したものです。config.jsonには量子化パラメータが含まれているため、ロード時に量子化パラメータを追加する必要はありません。4ビット量子化後の結果は、80億パラメータと同等です。
🚀 クイックスタート
モデル情報
属性 | 详情 |
---|---|
ライブラリ名 | transformers |
パイプラインタグ | テキスト生成 |
ベースモデル | huihui-ai/Qwen3-30B-A3B-abliterated |
タグ | chat、abliterated、uncensored |
ライセンス | apache-2.0 |
ライセンスリンク | https://huggingface.co/Qwen/Qwen3-30B-A3B/blob/main/LICENSE |
注意事項
⚠️ 重要提示
このモデルは、セーフティフィルタリングが大幅に削減されており、敏感な、物議を醸す、または不適切なコンテンツを生成する可能性があります。ユーザーは注意を払い、生成された出力を厳密にレビューする必要があります。このモデルは、コンテンツフィルタリングが制限されているため、公共の場、未成年ユーザー、または高いセキュリティが必要なアプリケーションには不適切な場合があります。ユーザーは、使用が地元の法律および倫理基準に準拠していることを確認する必要があります。生成されたコンテンツには、法的または倫理的なリスクが伴う可能性があり、ユーザーはすべての結果に対して単独で責任を負います。このモデルは、研究、テスト、または制御された環境での使用を推奨し、本番環境または公開された商用アプリケーションでの直接の使用は避けてください。ユーザーは、モデルの出力をリアルタイムで監視し、必要に応じて手動でレビューすることを強くお勧めします。標準モデルとは異なり、このモデルは厳密なセーフティ最適化を受けていません。huihui.aiは、その使用に起因するいかなる結果にも責任を負いません。
💻 使用例
基本的な使用法
from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig, TextStreamer
import torch
import os
import signal
cpu_count = os.cpu_count()
print(f"Number of CPU cores in the system: {cpu_count}")
half_cpu_count = cpu_count // 2
os.environ["MKL_NUM_THREADS"] = str(half_cpu_count)
os.environ["OMP_NUM_THREADS"] = str(half_cpu_count)
torch.set_num_threads(half_cpu_count)
print(f"PyTorch threads: {torch.get_num_threads()}")
print(f"MKL threads: {os.getenv('MKL_NUM_THREADS')}")
print(f"OMP threads: {os.getenv('OMP_NUM_THREADS')}")
# Load the model and tokenizer
NEW_MODEL_ID = "huihui-ai/Qwen3-30B-A3B-abliterated-fp4"
print(f"Load Model {NEW_MODEL_ID} ... ")
model = AutoModelForCausalLM.from_pretrained(
NEW_MODEL_ID,
device_map="auto",
trust_remote_code=True,
torch_dtype=torch.bfloat16
)
tokenizer = AutoTokenizer.from_pretrained(NEW_MODEL_ID, trust_remote_code=True)
if tokenizer.pad_token is None:
tokenizer.pad_token = tokenizer.eos_token
tokenizer.pad_token_id = tokenizer.eos_token_id
messages = []
enable_thinking = True
skip_prompt=True
skip_special_tokens=True
class CustomTextStreamer(TextStreamer):
def __init__(self, tokenizer, skip_prompt=True, skip_special_tokens=True):
super().__init__(tokenizer, skip_prompt=skip_prompt, skip_special_tokens=skip_special_tokens)
self.generated_text = ""
self.stop_flag = False
def on_finalized_text(self, text: str, stream_end: bool = False):
self.generated_text += text
print(text, end="", flush=True)
if self.stop_flag:
raise StopIteration
def stop_generation(self):
self.stop_flag = True
def generate_stream(model, tokenizer, messages, enable_thinking, skip_prompt, skip_special_tokens, max_new_tokens):
input_ids = tokenizer.apply_chat_template(
messages,
tokenize=True,
enable_thinking = enable_thinking,
add_generation_prompt=True,
return_tensors="pt"
)
attention_mask = torch.ones_like(input_ids, dtype=torch.long)
tokens = input_ids.to(model.device)
attention_mask = attention_mask.to(model.device)
streamer = CustomTextStreamer(tokenizer, skip_prompt=skip_prompt, skip_special_tokens=skip_special_tokens)
def signal_handler(sig, frame):
streamer.stop_generation()
print("\n[Generation stopped by user with Ctrl+C]")
signal.signal(signal.SIGINT, signal_handler)
print("Response: ", end="", flush=True)
try:
generated_ids = model.generate(
tokens,
attention_mask=attention_mask,
use_cache=False,
max_new_tokens=max_new_tokens,
do_sample=True,
pad_token_id=tokenizer.pad_token_id,
streamer=streamer
)
del generated_ids
except StopIteration:
print("\n[Stopped by user]")
del input_ids, attention_mask
torch.cuda.empty_cache()
signal.signal(signal.SIGINT, signal.SIG_DFL)
return streamer.generated_text, streamer.stop_flag
while True:
user_input = input("User: ").strip()
if user_input.lower() == "/exit":
print("Exiting chat.")
break
if user_input.lower() == "/clear":
messages = []
print("Chat history cleared. Starting a new conversation.")
continue
if user_input.lower() == "/no_think":
if enable_thinking:
enable_thinking = False
print("Thinking = False.")
else:
enable_thinking = True
print("Thinking = True.")
continue
if user_input.lower() == "/skip_prompt":
if skip_prompt:
skip_prompt = False
print("skip_prompt = False.")
else:
skip_prompt = True
print("skip_prompt = True.")
continue
if user_input.lower() == "/skip_special_tokens":
if skip_special_tokens:
skip_special_tokens = False
print("skip_special_tokens = False.")
else:
skip_special_tokens = True
print("skip_special_tokens = True.")
continue
if not user_input:
print("Input cannot be empty. Please enter something.")
continue
messages.append({"role": "user", "content": user_input})
response, stop_flag = generate_stream(model, tokenizer, messages, enable_thinking, skip_prompt, skip_special_tokens, 8096)
print("", flush=True)
if stop_flag:
continue
messages.append({"role": "assistant", "content": response})
📄 ライセンス
このプロジェクトは apache-2.0 ライセンスの下で提供されています。
寄付
もしこのモデルが気に入ったら、「いいね」をクリックし、最新のアップデートを受け取るためにフォローしてください。x.com/support_huihui をフォローすると、huihui.aiの最新のモデル情報を入手できます。
あなたの寄付は、私たちがさらなる開発と改善を続ける手助けになります。一杯のコーヒー代で十分です。
- bitcoin(BTC):
bc1qqnkhuchxw0zqjh2ku3lu4hq45hc6gy84uk70ge



