🚀 ViCoder-html-32B-preview
🚀 ViCoder-html-32B-previewは、Qwen2.5-Coder-32B-Instructをベースにした強力なHTML/CSS/JSスケッチモデルです。このモデルは、HTML、Tailwind CSS、JavaScriptを用いて、シングルページウェブサイトのスケッチを行うことができます。
🚀 クイックスタート
ViCoder-html-32B-previewは、Qwen2.5-Coder-32B-InstructをベースにしたHTML/CSS/JSスケッチモデルです。以下の手順で使用することができます。
必要なライブラリのインストール
pip install transformers torch accelerate
コードの実行
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
import torch
model_id = "VicharAI/ViCoder-html-32B-preview"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
messages = [
{"role": "user", "content": "A modern, sleek landing page for a company focusing on open-source LLM solutions"},
]
inputs = tokenizer.apply_chat_template(
messages,
tokenize = True,
add_generation_prompt = True,
return_tensors = "pt",
).to("cuda")
from transformers import TextStreamer
text_streamer = TextStreamer(tokenizer, skip_prompt = True)
_ = model.generate(input_ids = inputs, streamer = text_streamer, max_new_tokens = 16000,
use_cache = True, temperature = 0.7, min_p = 0.1, repetition_penalty=1.1)
✨ 主な機能
- 強力なコード生成能力:Qwen2.5-Coder-32B-Instructをベースにしているため、高品質なHTML、Tailwind CSS、JavaScriptコードを生成することができます。
- 多様な用途:ウェブ開発者、フロントエンドエンジニア、デザイナー、教育者、学生など、様々なユーザーに適しています。
- 効率的なローカル推論:GGUF形式の量子化バージョンが利用可能で、低メモリハードウェアでも実行できます。
📦 インストール
必要なライブラリをインストールすることで、ViCoder-html-32B-previewを使用することができます。
pip install transformers torch accelerate
💻 使用例
基本的な使用法
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
import torch
model_id = "VicharAI/ViCoder-html-32B-preview"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
messages = [
{"role": "user", "content": "A modern, sleek landing page for a company focusing on open-source LLM solutions"},
]
inputs = tokenizer.apply_chat_template(
messages,
tokenize = True,
add_generation_prompt = True,
return_tensors = "pt",
).to("cuda")
from transformers import TextStreamer
text_streamer = TextStreamer(tokenizer, skip_prompt = True)
_ = model.generate(input_ids = inputs, streamer = text_streamer, max_new_tokens = 16000,
use_cache = True, temperature = 0.7, min_p = 0.1, repetition_penalty=1.1)
高度な使用法
_ = model.generate(input_ids = inputs, streamer = text_streamer, max_new_tokens = 16000,
use_cache = True, temperature = 0.5, min_p = 0.1, repetition_penalty=1.1)
📚 ドキュメント
モデルの詳細
GGUF量子化バージョン
ViCoder-html-32B-previewのGGUF形式の量子化バージョンは、llama.cpp、LM Studio、またはOllamaを使用して、効率的なローカル推論を行うことができます。
出力サンプル
<!DOCTYPE html>
<html lang="en">
<head>
<meta charset="UTF-8">
<title>Our Love Story - Surprise Website</title>
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<script src="https://cdn.tailwindcss.com"></script>
<style>
...
(注意: このモデルは、Tailwindクラスを含む完全なHTML構造を生成することを目的としています。生成されたコードは必要に応じてレビューし、調整してください。)
評価と制限
このモデルはプレビュー版であり、以下の点に焦点を当てた初期の内部テストを行っています。
- コードの正確性:生成されたHTML、Tailwind CSSクラス、および基本的なJavaScriptスニペットの有効性。
- Tailwind CSSの使用:Tailwindのユーティリティファーストの原則と一般的なパターンへの準拠。
- コンポーネント構造:典型的なウェブコンポーネントのHTML要素の論理的な組織。
- 命令の追従:プロンプトからの要件を理解し、実装する能力。
現在の制限事項:
- 正式なベンチマークなし:標準的なコード生成ベンチマーク(例:HumanEval-X、MBPP)でまだ評価されていません。
- 複雑なロジック:複雑なJavaScriptロジック、状態管理、またはTailwindユーティリティを超える複雑なCSSに苦労する可能性があります。
- 幻覚のリスク:すべてのLLMと同様に、時々誤った、不完全な、または最適でないコードを生成することがあります。常に出力をレビューしてください。
- プレビュー状態:十分な検証なしに重要な本番環境での使用はお勧めしません。
ロードマップ
ViCoderシリーズは、Vichar AIの進行中のプロジェクトです。現在のロードマップは以下の通りです。
- ✅ ViCoder-html-32B-preview:初期の公開プレビューリリース(このモデル)。
- ⏳ ViCoder-html-32B (v1.0):改善された学習データ、微調整、および評価を備えた本番環境で使用可能なリリースが予定されています。
- 🚀 ViCoder-js-32B:将来的には、高度なJavaScript生成(フレームワーク、ロジック)に特化したモデル。
- 🐍 ViCoder-python-32B:Pythonバックエンドコード生成のための潜在的なコンパニオンモデル。
- 📊 ベンチマークと評価:関連するコード生成ベンチマークでの正式な評価。
📄 ライセンス
このモデルとそのコードは、Apache License 2.0の下でライセンスされています。完全なライセンステキストはこちらで確認できます。
🙏 引用
もしあなたがViCoder-html-32B-previewをあなたのプロジェクト、出版物、または研究で使用する場合は、以下のように引用してください。
@misc{vicharai_vicoder_html_32b_preview_2025,
title = {ViCoder-html-32B-preview: A Preview Model for HTML/Tailwind CSS/JavaScript Sketching},
author = {Vichar AI},
year = {2025},
publisher = {Hugging Face},
url = {https://huggingface.co/VicharAI/ViCoder-html-32B-preview},
url = {https://vichar.io}
}
📬 連絡方法
フィードバック、質問、および協力のアイデアを歓迎します!
🤝 謝辞
このプロジェクトは、他の素晴らしい人々の仕事に基づいています。
- SprykAI:モデルの実験段階での支援。
- アリババクラウドのQwenチーム:基盤となるQwen2.5-Coder-32B-Instructモデルの開発。
- Hugging Faceチーム:彼らのプラットフォームとライブラリ(🤗 Transformers、Accelerate、TRL)。
- より広いオープンソースAIコミュニティ:継続的な革新と共有知識。
- Vichar AIのチームによる開発努力。
⚠️ 重要提示
このモデルはプレビュー版です。本番環境での使用は、十分な検証を行ってから行ってください。
💡 使用建议
生成されたコードは必ずレビューし、必要に応じて調整してください。また、パラメータを調整することで、生成されるコードの品質を向上させることができます。