モデル概要
モデル特徴
モデル能力
使用事例
🚀 チンダ オープンソース タイ語LLM 4B (GGUF Q4_K_M)
チンダオープンソースタイ語LLM 4Bは、タイのAIエコシステムに高度な思考能力をもたらす、iApp Technologyによる最先端のタイ語モデルです。最新のQwen3 - 4Bアーキテクチャに基づいて構築され、タイに対するソブリンAIソリューションの開発への取り組みを表しています。
🚀 クイックスタート
インストール
pip install transformers torch
基本的な使用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "iapp/chinda-qwen3-4b"
# トークナイザーとモデルをロード
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
# モデル入力を準備
prompt = "อธิบายเกี่ยวกับปัญญาประดิษฐ์ให้ฟังหน่อย"
messages = [
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=True # より良い推論のために思考モードを有効にする
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
# 応答を生成
generated_ids = model.generate(
**model_inputs,
max_new_tokens=1024,
temperature=0.6,
top_p=0.95,
top_k=20,
do_sample=True
)
output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist()
# 思考内容を解析(有効な場合)
try:
# </think>トークン(151668)を検索
index = len(output_ids) - output_ids[::-1].index(151668)
except ValueError:
index = 0
thinking_content = tokenizer.decode(output_ids[:index], skip_special_tokens=True).strip("\n")
content = tokenizer.decode(output_ids[index:], skip_special_tokens=True).strip("\n")
print("ü߆ 思考:", thinking_content)
print("üí¨ 応答:", content)
思考モードと非思考モードの切り替え
思考モードを有効にする(デフォルト)
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=True # 詳細な推論を有効にする
)
思考モードを無効にする(効率化のため)
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=False # 高速応答モード
)
APIデプロイ
vLLMを使用する場合
pip install vllm>=0.8.5
vllm serve iapp/chinda-qwen3-4b --enable-reasoning --reasoning-parser deepseek_r1
SGLangを使用する場合
pip install sglang>=0.4.6.post1
python -m sglang.launch_server --model-path iapp/chinda-qwen3-4b --reasoning-parser qwen3
Ollamaを使用する場合(簡単なローカルセットアップ)
インストール:
# Ollamaをインストール(まだインストールされていない場合)
curl -fsSL https://ollama.com/install.sh | sh
# チンダLLM 4Bモデルを取得
ollama pull iapp/chinda-qwen3-4b
基本的な使用法:
# チンダLLMとのチャットを開始
ollama run iapp/chinda-qwen3-4b
# 会話の例
ollama run iapp/chinda-qwen3-4b "อธิบายเกี่ยวกับปัญญาประดิษฐ์ให้ฟังหน่อย"
APIサーバー:
# Ollama APIサーバーを起動
ollama serve
# curlで使用する
curl http://localhost:11434/api/generate -d '{
"model": "iapp/chinda-qwen3-4b",
"prompt": "สวัสดีครับ",
"stream": false
}'
モデル仕様:
- サイズ: 2.5GB(量子化済み)
- コンテキストウィンドウ: 40Kトークン
- アーキテクチャ: ローカルデプロイに最適化
- パフォーマンス: 消費者向けハードウェアでの高速推論
✨ 主な機能
0. 誰でも無料でオープンソース
チンダLLM 4Bは完全に無料でオープンソースです。開発者、研究者、ビジネスユーザーが制限なくタイ語AIアプリケーションを構築できます。
1. 高度な思考モデル
- 4Bカテゴリのタイ語LLMの中で最高のスコア
- 思考モードと非思考モードをシームレスに切り替えることができます
- 複雑な問題に対する優れた推論能力
- 効率的な汎用対話のためにオフにすることができます
2. 卓越したタイ語精度
- タイ語出力の精度が98.4%
- 不要な中国語や外国語の出力を防ぐ
- タイ語の言語パターンに合わせて特別に微調整されています
3. 最新のアーキテクチャ
- 最先端のQwen3 - 4Bモデルに基づいています
- 言語モデリングの最新の進歩を取り入れています
- パフォーマンスと効率の両方を最適化しています
4. Apache 2.0ライセンス
- 商用利用が許可されています
- 修正と配布が許可されています
- 個人使用に制限はありません
📚 ドキュメント
ベンチマーク結果
チンダLLM 4Bは、同カテゴリの他のタイ語モデルと比較して優れたパフォーマンスを示しています。
ベンチマーク | 言語 | チンダLLM 4B | 代替モデル* |
---|---|---|---|
AIME24 | 英語 | 0.533 | 0.100 |
タイ語 | 0.100 | 0.000 | |
LiveCodeBench | 英語 | 0.665 | 0.209 |
タイ語 | 0.198 | 0.144 | |
MATH500 | 英語 | 0.908 | 0.702 |
タイ語 | 0.612 | 0.566 | |
IFEVAL | 英語 | 0.849 | 0.848 |
タイ語 | 0.683 | 0.740 | |
言語精度 | タイ語 | 0.984 | 0.992 |
OpenThaiEval | タイ語 | 0.651 | 0.544 |
平均 | 0.569 | 0.414 |
- 代替モデル: scb10x_typhoon2.1 - gemma3 - 4b
- iApp TechnologyチームによるSkythoughtとEvalscopeベンチマークライブラリでテストされました。結果は、チンダLLM 4Bが最も近い代替モデルよりも全体的なパフォーマンスが37%優れていることを示しています。
適した用途
1. RAGアプリケーション(ソブリンAI)
データ処理をタイの主権内に留めるリトリーバル拡張生成システムの構築に最適です。
2. モバイルおよびラップトップアプリケーション
エッジコンピューティングと個人用デバイスに最適化された信頼性の高い小規模言語モデルです。
3. 数学計算
数学的推論と問題解決において優れたパフォーマンスを発揮します。
4. コードアシスタント
コード生成とプログラミング支援に強力な機能を備えています。
5. リソース効率
最小限のGPUメモリ消費で非常に高速な推論が可能で、本番デプロイに最適です。
適さない用途
コンテキストのない事実系の質問
4Bパラメータモデルであるため、コンテキストが提供されていない特定の事実について質問されると、幻覚を起こす可能性があります。事実系のクエリには常にRAGを使用するか、関連するコンテキストを提供してください。
🔧 技術詳細
長いテキストの処理
チンダLLM 4Bはネイティブで最大32,768トークンをサポートしています。より長いコンテキストの場合は、YaRNスケーリングを有効にします。
{
"rope_scaling": {
"rope_type": "yarn",
"factor": 4.0,
"original_max_position_embeddings": 32768
}
}
推奨パラメータ
思考モードの場合:
- 温度: 0.6
- Top - P: 0.95
- Top - K: 20
- Min - P: 0
非思考モードの場合:
- 温度: 0.7
- Top - P: 0.8
- Top - K: 20
- Min - P: 0
コンテキスト長とテンプレート形式
コンテキスト長のサポート
- ネイティブコンテキスト長: 32,768トークン
- 拡張コンテキスト長: 最大131,072トークン(YaRNスケーリングを使用する場合)
- 入力 + 出力: 総会話長がサポートされます
- 推奨使用法: 最適なパフォーマンスのために会話を32Kトークン未満に保ってください。
チャットテンプレート形式
チンダLLM 4Bは一貫した対話のために標準化されたチャットテンプレート形式を使用しています。
# 基本的なテンプレート構造
messages = [
{"role": "system", "content": "You are a helpful Thai AI assistant."},
{"role": "user", "content": "สวัสดีครับ"},
{"role": "assistant", "content": "สวัสดีค่ะ! มีอะไรให้ช่วยเหลือบ้างคะ"},
{"role": "user", "content": "ช่วยอธิบายเรื่อง AI ให้ฟังหน่อย"}
]
# 思考モードでテンプレートを適用
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=True
)
テンプレート構造
テンプレートは標準的な会話形式に従っています。
<|im_start|>system
You are a helpful Thai AI assistant.<|im_end|>
<|im_start|>user
สวัสดีครับ<|im_end|>
<|im_start|>assistant
สวัสดีค่ะ! มีอะไรให้ช่วยเหลือบ้างคะ<|im_end|>
<|im_start|>user
ช่วยอธิบายเรื่อง AI ให้ฟังหน่อย<|im_end|>
<|im_start|>assistant
高度なテンプレートの使用法
# 思考制御付きの複数ターンの会話
def create_conversation(messages, enable_thinking=True):
# システムメッセージが存在しない場合は追加
if not messages or messages[0]["role"] != "system":
system_msg = {
"role": "system",
"content": "คุณเป็น AI ผู้ช่วยที่ฉลาดและเป็นประโยชน์ พูดภาษาไทยได้อย่างเป็นธรรมชาติ"
}
messages = [system_msg] + messages
# チャットテンプレートを適用
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=enable_thinking
)
return text
# 使用例
conversation = [
{"role": "user", "content": "คำนวณ 15 × 23 = ?"},
]
prompt = create_conversation(conversation, enable_thinking=True)
動的なモード切り替え
会話内で特別なコマンドを使用して思考モードを制御することができます。
# 複雑な問題に対して思考モードを有効にする
messages = [
{"role": "user", "content": "/think แก้สมการ: x² + 5x - 14 = 0"}
]
# 迅速な応答のために思考モードを無効にする
messages = [
{"role": "user", "content": "/no_think สวัสดี"}
]
コンテキスト管理のベストプラクティス
- トークン数を監視する: 総トークン数(入力 + 出力)を追跡してください
- 古いメッセージを切り捨てる: 制限に近づいたら最も古いメッセージを削除します
- 長いコンテキストにはYaRNを使用する: 32Kトークンを超えるドキュメントの場合はropeスケーリングを有効にします
- バッチ処理: 非常に長いテキストの場合は、チャンクに分割してバッチで処理することを検討してください
def manage_context(messages, max_tokens=30000):
"""シンプルなコンテキスト管理関数"""
total_tokens = sum(len(tokenizer.encode(msg["content"])) for msg in messages)
while total_tokens > max_tokens and len(messages) > 2:
# システムメッセージを保持し、最も古いユーザー/アシスタントのペアを削除
if messages[1]["role"] == "user":
messages.pop(1) # ユーザーメッセージを削除
if len(messages) > 1 and messages[1]["role"] == "assistant":
messages.pop(1) # 対応するアシスタントメッセージを削除
total_tokens = sum(len(tokenizer.encode(msg["content"])) for msg in messages)
return messages
📄 ライセンス
本モデルはApache 2.0ライセンスの下で提供されています。商用利用、修正、配布が許可されており、個人使用にも制限はありません。
よくある質問
なぜ「チンダ」という名前なのですか?
「チンダ」(‡∏à‡∏¥‡∏ô‡∏î‡∏≤)という名前は、「‡∏à‡∏¥‡∏ô‡∏î‡∏≤‡∏°‡∏ì‡∏µ」(チンダマニ)に由来しています。これは、スコトタイ時代のフラ・ホラティボディ(スリ・ダルマソカラージャ)によって書かれたタイの最初の書とされています。‡∏à‡∏¥‡∏ô‡∏î‡∏≤‡∏°‡∏ì‡∏µがタイ文学と学問の基礎的なテキストであったように、チンダLLMはタイのソブリンAIの基礎を表しています。つまり、デジタル時代においてタイ語を真に理解し、思考するモデルであり、タイ語の能力を保存し、進化させます。チンダLLM 4Bを商用目的で使用できますか?
はい!チンダLLM 4Bは**Apache 2.0ライセンス**の下でリリースされており、以下が許可されています。 - **商用利用** - 商用製品やサービスでの使用 - **研究利用** - 学術や研究アプリケーション - **修正** - モデルの適応と修正 - **配布** - モデルの共有と再配布 - **個人使用** - 社内プロジェクトでの使用商用アプリケーションに制限はありません。自由に構築し、デプロイしてください!
思考モードと非思考モードの違いは何ですか?
**思考モード (`enable_thinking=True`)**: - モデルは`非思考モード (enable_thinking=False
):
- 推論を表示せずに直接的な回答を返します
- 一般的な会話ではより高速な応答が得られます
- 単純なクエリやチャットアプリケーションに適しています
- より効率的なリソース使用
/think
と/no_think
コマンドを使用してモードを切り替えるか、ユーザーに動的に制御させることができます。
チンダLLM 4Bは他のタイ語モデルと比較してどうですか?
チンダLLM 4Bは、最も近い代替モデルと比較して**全体的なパフォーマンスが37%優れています**。 - **全体平均**: 0.569対0.414(代替モデル) - **数学 (MATH500)**: 英語で0.908対0.702、タイ語で0.612対0.566 - **コード (LiveCodeBench)**: 英語で0.665対0.209、タイ語で0.198対0.144 - **タイ語精度**: 98.4%(中国語/外国語のテキスト出力を防ぐ) - **OpenThaiEval**: 0.651対0.544現在、4Bパラメータカテゴリのタイ語LLMの中で最も高いスコアを記録しています。
チンダLLM 4Bを実行するためのシステム要件は何ですか?
**最小要件**: - **GPU**: 8GB VRAM(RTX 3070/4060 Ti以上) - **RAM**: 16GBシステムメモリ - **ストレージ**: モデルダウンロードに8GBの空き容量 - **Python**: PyTorch付きの3.8以上本番環境での推奨要件:
- GPU: 16GB以上のVRAM(RTX 4080/A4000以上)
- RAM: 32GB以上のシステムメモリ
- ストレージ: 高速ロードのためのSSD
CPUのみのモード: 可能ですが、大幅に遅くなります(本番環境では推奨されません)
チンダLLM 4Bを自分の特定のユースケースに合わせて微調整できますか?
はい!Apache 2.0ライセンスの下でのオープンソースモデルとして、以下が可能です。 - ドメイン固有のデータで**微調整**する - 特定のタスクや業界に合わせて**カスタマイズ**する - 必要に応じて**アーキテクチャを変更**する - 特殊なアプリケーションのための**派生モデルを作成**するチンダと互換性のある人気の微調整フレームワーク:
- Unsloth - 高速でメモリ効率が良い
- LoRA/QLoRA - パラメータ効率の高い微調整
- Hugging Face Transformers - 完全な微調整
- Axolotl - 高度なトレーニング構成
微調整に関する支援が必要な場合は、sale@iapp.co.thまでご連絡ください。
チンダLLM 4Bはどの言語をサポートしていますか?
**主要言語**: - **タイ語** - ネイティブレベルの理解と生成(精度98.4%) - **英語** - すべてのベンチマークで強力なパフォーマンスを発揮追加言語:
- 100以上の言語をサポート(Qwen3 - 4Bベースから継承)
- タイ語 - 英語のバイリンガルタスクに最適化
- 複数のプログラミング言語でのコード生成
特殊機能:
- タイ語と英語の間のコードスイッチング
- タイ語と他の言語の間の翻訳
- 多言語推論能力
学習データは公開されていますか?
モデルの重みはオープンソースですが、特定の学習データセットは公開されていません。ただし、以下の点があります。 - **ベースモデル**: Qwen3 - 4B(アリババのオープンファウンデーション)に基づいて構築 - **タイ語最適化**: タイ語タスク用のカスタムデータセットの作成 - **品質重視**: 慎重に選択された高品質のタイ語コンテンツ - **プライバシー準拠**: 個人データや機密データは含まれていません研究協力やデータセットの問い合わせは、研究チームにお問い合わせください。
サポートを受けたり、問題を報告するにはどうすればいいですか?
**技術的な問題の場合**: - **GitHubの問題トラッカー**: バグや技術的な問題を報告します - **Hugging Face**: モデル固有の質問や議論 - **ドキュメント**: 包括的なガイドを確認してください商用サポートの場合:
- メール: sale@iapp.co.th
- エンタープライズサポート: カスタムトレーニング、デプロイメント支援
- コンサルティング: 統合と最適化サービス
コミュニティサポート:
- タイ語AIコミュニティ: タイ語AI開発に関する議論に参加しましょう
- 開発者フォーラム: 他のチンダユーザーと交流します
モデルのダウンロードサイズはどれくらいで、どの形式ですか?
**モデル仕様**: - **パラメータ**: 40.2億(4B) - **ダウンロードサイズ**: ~8GB(圧縮済み) - **形式**: Safetensors(推奨)とPyTorch - **精度**: BF16(ブレインフロート16)ダウンロードオプション:
- Hugging Face Hub:
huggingface.co/iapp/chinda-qwen3-4b
- Git LFS: バージョン管理の統合のため
- 直接ダウンロード: 個々のモデルファイル
- 量子化バージョン: メモリ使用量を削減するために利用可能(GGUF、AWQ)
量子化オプション:
- 4ビット (GGUF): ~2.5GB、4GB VRAMで実行可能
- 8ビット: ~4GB、パフォーマンスとメモリのバランスが取れています
- 16ビット (オリジナル): ~8GB、完全なパフォーマンス
引用
あなたの研究やプロジェクトでチンダLLM 4Bを使用する場合は、以下のように引用してください。
@misc{chinda-llm-4b,
title={Chinda LLM 4B: Thai Sovereign AI Language Model},
author={iApp Technology},
year={2025},
publisher={Hugging Face},
url={https://huggingface.co/iapp/chinda-qwen3-4b}
}
Built with üáπüá≠ by iApp Technology - Empowering Thai Businesses with Sovereign AI Excellence
Powered by iApp Technology
Disclaimer: Provided responses are not guaranteed.



