# チェイン・オブ・シンキング推論

Hicoder R1 Distill Gemma 27B
GoogleのGemma-3 27Bをファインチューニングした大規模言語モデルで、チェイン・オブ・シンキング推論とコード生成タスクに特化し、GPUメモリとシステムメモリ管理を最適化しています。
大規模言語モデル
H
tonyli8623
13
2
UIGEN T1.5 7B
Apache-2.0
Qwen2.5-Coder-7B-Instructをファインチューニングした高度なUI生成モデルで、モダンで視覚的に魅力的なHTML/CSSコードの生成に優れています。
大規模言語モデル Transformers 英語
U
Tesslate
121
5
UIGEN T1.5 14B
Apache-2.0
Qwen2.5-Coder-14B-Instructを微調整した高度なTransformerインターフェース生成モデルで、モダンでユニークなフロントエンドユーザーインターフェースの生成に優れています
大規模言語モデル Transformers 英語
U
Tesslate
67
5
Quietstar 8 Ahead
Mistral-7bモデルをベースに、Quiet-STaR手法を用いて継続的事前学習を行い、各出力トークンを生成する前に8つの思考トークンを生成することで、推論能力を向上させています。
大規模言語モデル Transformers
Q
ezelikman
239
90
Synthia 70B V1.5
Synthia-70B-v1.5は700億パラメータの大規模言語モデルで、Llama2アーキテクチャを基盤としており、思考木手法による複雑な推論と一貫性のある回答に特化しています。
大規模言語モデル Transformers
S
migtissera
99
42
Synthia 70B V1.2b
SynthIA(合成知能エージェント)はOrcaスタイルのデータセットでトレーニングされたLLama-2-70Bモデルで、命令追従と長い会話に優れています。
大規模言語モデル Transformers 英語
S
migtissera
136
29
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase